Microsofts racistiske, homofobiske, misogyne, Trump-elskende, holocaustbenægtende, Hitlerglade chatbot Tay blev udskreget som en fiasko, men det kommer an på, hvordan man spørger. Måske er det nærmere en tragikomisk lektie i kunstig intelligens og en påmindelse om, at vi skal lære at leve med robotter, der kan fejle