Hassrede ist im Internet und in sozialen Medien allgegenwärtig, aber manchmal kommen Beleidigungen auf indirektem Weg. Michael Wiegand vom Digital Age Research Center (D!ARC) der Universität Klagenfurt hat es sich zur Aufgabe gemacht, Klassifikatoren zu entwickeln, um solche „impliziten Beleidigungen“ besser aufzuspüren.
„Ich kann sehr kränkende Dinge sagen, ohne überhaupt Schimpfwörter zu verwenden“, erläutert Wiegand. „Du siehst aus wie jemand, den nur eine Mutter lieben kann.“ Oder: „Ich bin froh, dass wir uns zumindest am Wochenende nicht sehen.“ Für einen Menschen sind diese Aussagen ganz klar Beleidigungen, aber Computerprogramme zur automatischen Erkennung von Hassrede können solche sogenannten impliziten Beleidigungen noch nicht erkennen. Wiegand arbeitet deshalb an ihrer automatisierten Erkennung. Der gebürtige Deutsche ist seit vielen Jahren im Feld der Computerlinguistik von Hate Speech tätig, also wütende, beleidigende Kommentare, Snaps, Tweets und Posts im Internet und auf Social Media.
Indirekte Beleidigungen als große Herausforderung
Offenkundige Schimpfwörter wie „Dummkopf“, „Idiot“ oder „Abschaum“ können Programme heutzutage leicht erkennen, aber indirekte Beleidigungen stellen eine große Herausforderung für die Wissenschaft dar. „Ich kann jemanden auf sehr unterschiedliche Art und Weise kränken“, sagt Wiegand. „Wenn Sie zu jemandem sagen: ‘Sie sind aber nicht sehr intelligent‘, werden das viele Systeme nicht als Beleidigung erkennen. Die Wörter an sich haben nichts Verdächtiges. ‘Intelligent‘ ist ja etwas Gutes. Negationswörter wie ‘nicht‘ findet man auch in allen Texten. Also denkt das Programm: Wieso sollte das eine Beleidigung darstellen?“
Aber der digitale Raum steckt voller beleidigender Kommentare und abwertender Bemerkungen. Ihre Identifizierung ist ein Anfang, aber keine Lösung. „Die Betreiber diverser sozialer Medien sind da in der Pflicht, auf ihren Plattformen aufzuräumen“, betont Wiegand. Wenn eine Social-Media-Plattform technisch in der Lage ist, Hassreden oder Beleidigungen automatisch zu erkennen, muss sie eine Entscheidung darüber treffen, wie sie damit umgeht.
Sprachliche Muster erkennen
Es braucht Klassifikatoren, die nicht nur Schlüsselwörter, sondern auch sprachliche Muster automatisch erkennen können. Ein Mensch allein wäre damit überfordert, so große Mengen im Netz abzuarbeiten. Die Maschine steigert die Effizienz maßgeblich, sie hat aber auch ihre Grenzen, betont der Akademiker. „Es wäre anmaßend, zu behaupten, dass man alles automatisieren kann. Es geht um das Zwischen-den-Zeilen-Lesen, und das einer Maschine zu überlassen, die vielleicht schon direkt eine Anzeige macht, wäre hochgradig problematisch.“
Es gibt auch eine Reihe ethischer und rechtlicher Aspekte der Implementierung einer automatisierten Erkennung, über die kein Konsens herrscht. „Selbst milde Beleidigungen sollte man nicht verwenden, aber ein bisschen was muss eine Gesellschaft auch aushalten können“, meint der Forscher. Und schließlich sei Sprache etwas sehr Lebendiges - und das erfordere automatisierte Erkennungssysteme, die sich mit der Online-Dynamik weiterentwickeln können. „Man sollte sich nicht der Illusion hingeben, dass wir irgendwann alles kartografiert haben. Nein, die Gesellschaft entwickelt sich weiter“, so Wiegand, „dementsprechend entwickelt sich Sprache weiter und damit auch Hate Speech und Beleidigungen.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.