Nachrichten
MICROSOFT ERFAHRTE NUR, DASS das Internet ein dunkler, beängstigender Ort ist. Sie starteten einen Twitter-Chat-Bot namens Tay, der die Rede eines 19-jährigen Mädchens imitieren sollte. Die künstliche Intelligenz (Artificial Intelligence, AI) sollte dazu beitragen, „Untersuchungen zum Gesprächsverständnis durchzuführen“, so Microsoft. Als sie live ging, konnte sie von den Personen lernen, mit denen sie sprach, und sie nachahmen, wie sie sprachen.
Das Problem war, dass Microsoft seinen Bot nicht so designte, dass knifflige oder politische Themen vermieden wurden, was bedeutete, dass er die Meinungen der Leute widerspiegelte, die mit ihm sprachen. Dies war natürlich eine zu gute Gelegenheit für die Trolle des Internets, und Dinge wurden sehr hässlich, sehr schnell.
Innerhalb von 24 Stunden, nachdem der Bot online gegangen war, hatte sich Tay in einen kompletten Drecksack-Rassisten verwandelt. Abgesehen von der Leugnung des Holocaust und dem Nationalsozialismus begann der Bot auch, Donald Trumps Meinungen zur Einwanderung und zu den Verschwörungstheorien vom 11. September zu imitieren, und begann natürlich, eine Menge schrecklicher rassistischer Beleidigungen zu verwenden.
Microsoft hat beschlossen, es herunterzufahren. Das soll nicht heißen, dass der Bot kein Erfolg war: Er ahmte die Leute, mit denen er sprach, perfekt nach. Was Microsoft jedoch nicht berücksichtigte, war, dass die Leute, die es imitierte, Internet-Trolle waren. Das Internet verwandelte ein Hightech-Experiment in künstlicher Intelligenz in nichts weiter als einen weiteren Trottel.