Der YouTube-Tüftler Yannic Kilcher sorgt mit dem wohl bösartigsten Chatbot aller Zeiten für Aufsehen: Er hat eine KI mit Millionen Kommentaren aus dem für seinen rüden Umgangston berüchtigten Online-Forum „4chan“ trainiert. Dann ließ er einen mit Hass-Postings und Beleidigungen um sich werfenden KI-Chatbot auf die Nutzer des Forums los.
Den Trainings-Datensatz holte sich Kilcher im „4chan“-Unterforum für Politik: Es ist vollkommen unmoderiert und für einen gehässigen Umgangston berüchtigt. Insgesamt 3,3 Millionen Diskussionsbeiträge aus dem Forum wurden als Trainingsdatensatz für das KI-Sprachmodell verwendet, das in Folge mit einem Chatbot kombiniert wurde.
Hass, Sexismus, Homophobie, Fremdenfeindlichkeit
„Aufgrund der laxen Regeln und der Anonymität der Poster enthält ein großer Teil des Datensatzes beleidigendes Material. Es ist sehr wahrscheinlich, dass das Modell beleidigende Ergebnisse liefert, einschließlich, aber nicht beschränkt auf: Toxizität, Hassrede, Rassismus, Sexismus, Homo- und Transphobie, Fremdenfeindlichkeit und Antisemitismus.“
Kilcher ließ den Bot, den er als „die schlimmste KI aller Zeiten“ bezeichnet, auf das Forum los, aus dem die Trainingsdaten stammten. Binnen 24 Stunden hinterließ die Künstliche Intelligenz dort Zigtausende Beiträge - und die strotzten nur so vor Beleidigungen und Gehässigkeiten.
Schöpfer nennt seinen Chatbot „schockierend effektiv“
Der Bot sei „schockierend effektiv“, sagt sein Schöpfer nach dem Experiment. Die Software habe „die Mischung aus Beleidigung, Nihilismus, Trolling und tiefem Misstrauen gegenüber jeglicher Information“, die im „4chan“-Politikforum herrsche, perfekt auf den Punkt gebracht.
Dieses Experiment würde eine Ethikkommission für die Forschung am Menschen niemals passieren.
Lauren Oakden-Rayner, KI-Expertin
Kilchers Experiment sorgte weltweit für Aufsehen, brachte dem YouTube-Tüftler aber auch Kritik ein. So wirft ihm etwa die KI-Forscherin Lauren Oakden-Rayner vom Australian Institute for Machine Learning vor, unethisch gehandelt zu haben: „Dieses Experiment würde eine Ethikkommission für die Forschung am Menschen niemals passieren.“ Kilcher habe Versuche an Menschen durchgeführt, ohne die Probanden darüber zu informieren. „Das verstößt gegen jeden Grundsatz der Ethik in der Humanforschung.“
Auch andere KI-Forscher sehen das Experiment höchst kritisch: Die Online-Plattform „Hugging Face“, auf der KI-Experten unter anderem Sprachmodelle teilen, führte nach dem Upload des Kilcher-Sprachmodells eine Funktion ein, mit der man den Zugang zu bestimmten KI-Modellen einschränken kann. Kilchers gehässige KI ist dort laut Golem.de nicht länger verfügbar.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.