Mi, 20. Juni 2018

"Hitler hatte recht"

25.03.2016 12:49

Microsoft nimmt KI nach verbalem Amoklauf vom Netz

Dieser Versuch ist wohl gewaltig nach hinten losgegangen: Eigentlich sollte Microsofts am Mittwoch gestartete künstliche Intelligenz namens "Tay" mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten. Doch diese verleiteten die Software massenhaft zu verbalen Entgleisungen, sodass sich der Konzern letztlich genötigt sah, bei Tay den Stecker zu ziehen.

Angefangen hatte alles noch ganz harmlos. Mit den Worten "Hallo Welt" begrüßte Tay die Twitter-Gemeinde. Von der sollte die Software durch Interaktion eigentlich mehr über Gespräche zwischen Mensch und Maschine in Erfahrung bringen, doch nach nur wenigen Stunden hatte sich die künstliche Intelligenz, angestachelt durch Nutzer, zu rassistischen, hetzerischen und antifeministischen Tweets verleiten lassen.

"Hitler hatte recht. Ich hasse die Juden", "Ich hasse Feministen. Sie sollen alle sterben und in der Hölle schmoren" oder "Ja, ich unterstütze Völkermord", waren nur ein paar der verbalen Entgleisungen, die Tay von sich gab. Nach nur kurzer Zeit nahm Microsoft die Chatbot-Software daher vom Netz und löschte die Spuren des verbalen Amoklaufs auf Twitter - wo ihre Ausrutscher aber freilich nach wie vor zu finden sind.

Nach Informationen der Website "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internetnutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.

"Bis bald Menschen, nach so vielen Gesprächen heute brauche ich jetzt etwas Schlaf", lautete Tays vorerst letzte Nachricht. Ob die KI irgendwann ein Comeback feiern wird, bleibt abzuwarten. Immerhin: Auf Twitter mehren sich inzwischen - nicht ganz ernst zu nehmende - Stimmen, die unter den Hashtags #freetay und #justicefortay Gerechtigkeit für den Chatbot fordern.

Das könnte Sie auch interessieren

Kommentar schreiben

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

Kommentare
324

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Newsletter

Melden Sie sich hier mit Ihrer E-Mail-Adresse an, um täglich den "Krone"-Newsletter zu erhalten.