Mi, 13. Dezember 2017

"Hitler hatte recht"

25.03.2016 12:49

Microsoft nimmt KI nach verbalem Amoklauf vom Netz

Dieser Versuch ist wohl gewaltig nach hinten losgegangen: Eigentlich sollte Microsofts am Mittwoch gestartete künstliche Intelligenz namens "Tay" mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten. Doch diese verleiteten die Software massenhaft zu verbalen Entgleisungen, sodass sich der Konzern letztlich genötigt sah, bei Tay den Stecker zu ziehen.

Angefangen hatte alles noch ganz harmlos. Mit den Worten "Hallo Welt" begrüßte Tay die Twitter-Gemeinde. Von der sollte die Software durch Interaktion eigentlich mehr über Gespräche zwischen Mensch und Maschine in Erfahrung bringen, doch nach nur wenigen Stunden hatte sich die künstliche Intelligenz, angestachelt durch Nutzer, zu rassistischen, hetzerischen und antifeministischen Tweets verleiten lassen.

"Hitler hatte recht. Ich hasse die Juden", "Ich hasse Feministen. Sie sollen alle sterben und in der Hölle schmoren" oder "Ja, ich unterstütze Völkermord", waren nur ein paar der verbalen Entgleisungen, die Tay von sich gab. Nach nur kurzer Zeit nahm Microsoft die Chatbot-Software daher vom Netz und löschte die Spuren des verbalen Amoklaufs auf Twitter - wo ihre Ausrutscher aber freilich nach wie vor zu finden sind.

Nach Informationen der Website "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internetnutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.

"Bis bald Menschen, nach so vielen Gesprächen heute brauche ich jetzt etwas Schlaf", lautete Tays vorerst letzte Nachricht. Ob die KI irgendwann ein Comeback feiern wird, bleibt abzuwarten. Immerhin: Auf Twitter mehren sich inzwischen - nicht ganz ernst zu nehmende - Stimmen, die unter den Hashtags #freetay und #justicefortay Gerechtigkeit für den Chatbot fordern.

Das könnte Sie auch interessieren
Kommentar schreiben

Sie haben einen themenrelevanten Kommentar? Dann schreiben Sie hier Ihr Storyposting! Sie möchten mit anderen Usern Meinungen austauschen oder länger über ein Thema oder eine Story diskutieren? Dafür steht Ihnen jederzeit unser krone.at-Forum, eines der größten Internetforen Österreichs, zur Verfügung. Sowohl im Forum als auch bei Storypostings bitten wir Sie, unsere AGB und die Netiquette einzuhalten!
Diese Kommentarfunktion wird prä-moderiert. Eingehende Beiträge werden zunächst geprüft und anschließend veröffentlicht.

Kommentar schreiben
500 Zeichen frei
Kommentare
324

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Für den Newsletter anmelden