Facebook-Löschtrupp:

“Nach ein paar Tagen sah ich die erste Leiche”

Web
16.12.2016 14:53

Dass Facebook Billigarbeiter bei Dienstleistern in Schwellenländern damit betraut, Gewalt, Pornografie und andere Probleminhalte von seiner Website zu tilgen, ist bekannt. Doch nun wurde öffentlich, dass sich auch in Deutschland Hunderte sogenannte Content-Moderatoren Tag für Tag durch die menschlichen Abgründe arbeiten, die sich auf Facebook auftun. Ein Job, an dem viele zerbrechen.

Was macht es mit einem Menschen, sich tagtäglich durch sadistische, menschenverachtende oder pädophile Inhalte zu klicken und sie auf Basis eines komplizierten und undurchsichtigen Regelwerks zu löschen oder eben nicht?

(Bild: APA/dpa-Zentralbild/Jens Büttner)

Dieser Frage ist die "Süddeutsche Zeitung" bei Recherchen in Berlin auf den Grund gegangen, wo beim Personaldienstleister Arvato rund 600 Menschen aus aller Welt für die Prüfung und Löschung gemeldeter Postings zuständig sind.

Es gibt Teams, die Beiträge auf Deutsch sichten, andere Teams für Inhalte auf Spanisch oder Arabisch. Auch der eine oder andere syrische Flüchtling, der genau vor den Bildern geflüchtet ist, die er nun sichtet und bewertet, arbeitet bei Arvato als "Content-Moderator". Einer sagt: "Es ist schlimm, aber so kann ich zumindest verhindern, dass schreckliche Gewaltvideos aus Syrien weiterverbreitet werden."

Tierquälerei, Kindesmissbrauch, Folter
Die Erzählungen der "digitalen Müllabfuhr" schockieren. "Ein Video kriege ich nicht aus dem Kopf: Darin zertritt eine Frau mit hochhackigen Schuhen ein Katzenbaby als Teil eines Sex-Fetischvideos. Ich dachte nicht, dass Menschen zu so etwas fähig sind", erzählt ein Arvato-Mitarbeiter.

(Bild: Screenshot Google)

Ein anderer erinnert sich an einen besonders grausigen Beitrag: "Dieses kleine Mädchen, maximal sechs Jahre, das in einem Bett liegt, Oberkörper frei, und darauf sitzt ein fetter Mann und missbraucht sie. Es war eine Nahaufnahme."

Wieder ein anderer: "Nach ein paar Tagen sah ich die erste Leiche, viel Blut, ich bin erschrocken. Ich habe das Bild sofort gelöscht. Mein Vorgesetzter kam zu mir und sagte: 'Das war falsch, dieses Bild verstößt nicht gegen die Gemeinschaftsstandards von Facebook.' Ich solle beim nächsten Mal genauer arbeiten."

(Bild: thinkstockphotos.de (Symbolbild))

Gewalt am Fließband für 8,50 Euro pro Stunde
Bis zu 1000 gemeldete Postings pro Tag, mit grausigen Bildern und Videos angereichert, sichten die Moderatoren in Berlin für 8,50 Euro pro Stunde. Acht Sekunden sind vorgesehen, um sich im Fall eines Gewaltvideos ein Urteil zu bilden. Fließbandarbeit. Dabei sind viele Videos weit länger als acht Sekunden. Und wer sein Pensum nicht erfüllt, wird von Vorgesetzten unter Druck gesetzt.

Manchmal werden die "Content-Moderatoren" spätnachts oder am Wochenende ins Büro zitiert - etwa, wenn es zu einem Terroranschlag wie jenem vor einem Jahr in Paris kommt und Facebook mit Live-Bildern des Grauens geflutet wird.

90 Menschen kamen allein beim Anschlag auf das Konzerthaus Bataclan ums Leben. (Bild: APA/EPA/Yoan Valat)
90 Menschen kamen allein beim Anschlag auf das Konzerthaus Bataclan ums Leben.

Verheerende Folgen für die Psyche
Die Folgen für die Psyche der Mitarbeiter sind katastrophal, können sich auch körperlich bemerkbar machen. Einer berichtet: "Mir sind plötzlich büschelweise die Haare ausgefallen, nach dem Duschen oder selbst in der Arbeit. Mein Arzt sagte: Du musst raus aus diesem Job!"

Eine Kollegin klagt: "Seit ich die Kinderpornovideos gesehen habe, könnte ich eigentlich Nonne werden - an Sex ist nicht mehr zu denken. Seit über einem Jahr kann ich mit meinem Partner nicht mehr intim werden. Sobald er mich berührt, fange ich an zu zittern."

"Viele haben gesoffen oder exzessiv gekifft"
Viele halten dem Druck nicht stand. "Immer wieder sind Leute vom Schreibtisch aufgesprungen, in die Küche gerannt und haben das Fenster aufgerissen, um nach einem Enthauptungsvideo ein bisschen frische Luft zu atmen. Viele haben gesoffen oder exzessiv gekifft, um damit klarzukommen", berichtet ein Moderator.

Symbolbild (Bild: dpa-Zentralbild/Patrick Pleul)
Symbolbild

Enorme Arbeitsbelastung, kaum psychologische Hilfe
Mit den Erzählungen der Mitarbeiter konfrontiert, erklärt Facebook: "Es wird jedem Mitarbeiter angeboten, psychologische Betreuung in Anspruch zu nehmen." Das sei im deutschen Arbeitsschutzgesetz auch so vorgesehen, heißt es in dem Bericht. Nur, dass die Arvato-Mitarbeiter eigenen Angaben zufolge nie eine Psychologin zu Gesicht bekommen haben.

Es habe zwar Gruppentermine mit einer Sozialpädagogin gegeben, diese seien aber keine Hilfe gewesen. "Keiner in meinem Team hat irgendein Vertrauen in diese Firma - warum sollten wir dann denen unsere Sorgen anvertrauen?"

(Bild: dpa/Julian Stratenschulte)

Geheimes Regelwerk entscheidet über Löschung
Ob ein Beitrag gelöscht werden muss, entscheiden die Moderatoren anhand eines geheimen Facebook-Regelwerks, das sie oft auf eine harte Probe stellt. Der Zeitung sind Passagen dieses Regelwerks, in das nicht einmal Regierungen Einblick haben, in die Hände gefallen. "Früher war das Bild eines abgetrennten Kopfes in Ordnung, solange der Schnitt gerade verlief. Was ist das für eine sinnlose Regel? Und wer legt sie fest?", fragt ein Arvato-Mitarbeiter.

Tatsächlich sind die Regeln für die Löschung von Beiträgen eines der am besten gehüteten Geheimnisse Facebooks - und eine äußerst komplexe Angelegenheit. Das Posting "Hängt diesen Hurensohn!" verstößt beispielsweise nicht gegen die Nutzungsbedingungen, es handelt sich hierbei aus Sicht des sozialen Netzwerks um "erlaubte Befürwortung der Todesstrafe". Würde der Wortlaut "Hängt diesen schwulen Hurensohn!" lauten, würde der Beitrag gelöscht, da er sich gegen eine in Facebooks Regelwerk geschützte Personengruppe richtet.

Diese Regeln macht kein Staat, keine NGO. Sie stammen aus keiner Verfassung, sondern aus der Feder eines gewinnorientierten US-Unternehmens, dem es vor allem um eines geht: die Nutzer möglichst lang auf der eigenen Website zu halten, um ihnen möglichst viel Werbung zu zeigen.

Wie groß muss unsere Sorge vor künstlicher Intelligenz sein? (Bild: flickr.com/photos/healthblog)
Wie groß muss unsere Sorge vor künstlicher Intelligenz sein?

Künstliche Intelligenz soll Moderatoren ersetzen
Dass die undurchsichtigen Regeln und die Bilder und Videos, auf die sie angewandt werden sollen, die Moderatoren zutiefst verstören, weiß Facebook. Der US-Konzern vertröstet mit der Vision, eines Tages werde künstliche Intelligenz diese Aufgabe übernehmen. Dann müssten sich keine Menschen mehr mit all dem auseinandersetzen. Doch bis es so weit ist, zerbrechen die Moderatoren reihenweise an ihrer Arbeit.

Ein Aussteiger erinnert sich an seinen letzten Tag bei Arvato. Er musste die Tötung eines dreijährigen Kindes mit einem Schlachtermesser mit ansehen. "Ich habe selbst ein Kind. Es könnte dieses sein. Ich muss nicht mein Gehirn zerstören wegen dieses Scheißjobs. Ich habe alles ausgeschaltet und bin einfach rausgelaufen. Ich habe meine Tasche genommen und bin heulend bis zur Straßenbahn gelaufen."

Keiner der Menschen, die von der Zeitung über ihre Arbeit bei Arvato befragt wurden, hat vor, auf Dauer für das Unternehmen zu arbeiten.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele
Vorteilswelt