🚀 ProPicks KI erreicht +34,9 % Rendite!Mehr erfahren

"Unsere Arbeit ist Folter": Content-Moderatoren verklagen Facebook

Veröffentlicht am 30.06.2023, 12:55
"Unsere Arbeit ist Folter": Content-Moderatoren verklagen Facebook
META
-

Den Tränen nahe erinnert sich Nathan Nkunzimana daran, dass er ein Video sah, in dem ein Kind missbraucht und eine Frau getötet wurde. Acht Stunden am Tag muss er in seinem Job als Content-Moderator für einen Facebook-Auftragnehmer Videos und Fotos ansehen, damit die Welt diese nicht sehen muss. Kolleginnen und Kollegen, die diese Inhalte nicht ertragen könnten, würden schreien oder weinen, so Nkunzimana.

Nkunzimana ist einer von rund 200 ehemaligen Mitarbeitern in Kenia, die Facebook und den lokalen Auftragnehmer Sama wegen Arbeitsbedingungen verklagen, die Auswirkungen auf Moderator:innen von sozialen Medien auf der ganzen Welt haben könnten.

Es ist die erste bekannte gerichtliche Anfechtung außerhalb der Vereinigten Staaten, wo Facebook sich 2020 mit den Moderator:innen geeinigt hat.

1,46 Milliarden Euro Entschädigung

Die Gruppe war im ausgelagerten Zentrum des Social-Media-Riesen für die Moderation von Inhalten in Kenias Hauptstadt Nairobi beschäftigt, wo die Mitarbeiter Beiträge, Videos, Nachrichten und andere Inhalte von Nutzerinnen und Nutzern aus ganz Afrika überprüfen und illegales oder schädliches Material entfernen, das gegen die Gemeinschaftsstandards und Nutzungsbedingungen verstößt.

Wenn Sie sich beim Durchstöbern der Facebook-Seite wohlfühlen, dann deshalb, weil es jemanden wie mich gibt, der vor dem Bildschirm saß und sich fragte: "Ist es in Ordnung, hier zu sein?"

Nathan Nkunzimana Ehemaliger Moderator des Facebook-Auftragnehmers Sama

Die Moderatoren aus mehreren afrikanischen Ländern fordern einen Entschädigungsfonds in Höhe von 1,46 Milliarden Euro, nachdem sie sich über schlechte Arbeitsbedingungen, unzureichende psychologische Betreuung und niedrige Löhne beschwert hatten.

Anfang dieses Jahres wurden sie von Sama entlassen, als sich das Unternehmen aus dem Geschäft der Inhaltsmoderation zurückzog. Sie behaupten, dass die Unternehmen eine gerichtliche Anordnung zur Verlängerung ihrer Verträge ignorieren, bis der Fall gelöst ist. Facebook und Sama haben ihre Beschäftigungspraktiken verteidigt.

"Wie 'Soldaten', die sich für Facebook-Nutzer eine Kugel einfangen"

Da nicht sicher ist, wie lange es dauern wird, bis der Fall abgeschlossen ist, erklärten die Content-Moderatoren, dass sie verzweifelt sind, da ihnen das Geld und die Arbeitserlaubnis ausgeht und sie mit den traumatischen Bildern ringen, die sie heimsuchen.

"Wenn man sich beim Durchstöbern der Facebook-Seite wohlfühlt, liegt das daran, dass es jemanden wie mich gibt, der vor dem Bildschirm sitzt und prüft, ob das hier hingehört", sagte Nkunzimana, ein dreifacher Vater aus Burundi, gegenüber AP in Nairobi.

Der ehemalige Facebook-Moderator Nathan Nkunzimana AP

Der 33-Jährige erklärt, dass die Inhaltsmoderation vergleichbar sei mit "Soldaten, die eine Kugel für die Facebook-Nutzer abfangen", wobei die Mitarbeiter schädliche Inhalte, die Mord, Selbstmord und sexuelle Übergriffe zeigen, beobachten und sicherstellen, dass sie entfernt werden.

Für Nkunzimana und andere begann die Arbeit mit einem Gefühl des Stolzes, denn sie fühlten sich als "Helden für die Gemeinschaft".

Kritik wegen fehlender Unterstützung

Doch als die Arbeit bei einigen, die wie er vor politischer oder ethnischer Gewalt in ihrer Heimat geflohen waren, vergangene Traumata wieder aufleben ließ, fanden die Moderatoren wenig Unterstützung und eine Kultur der Geheimhaltung vor.

Sie wurden aufgefordert, Vertraulichkeits-Vereinbarungen zu unterzeichnen. Persönliche Gegenstände wie etwa Mobiltelefone seien bei der Arbeit nicht erlaubt gewesen.

Nach seiner Schicht ging Nkuzimana erschöpft nach Hause und schloss sich oft in seinem Schlafzimmer ein, um zu vergessen, was er gesehen hatte. Selbst seine Frau hatte keine Ahnung, wie seine Arbeit aussah.

Heute schließt er sich in seinem Zimmer ein, um den Fragen seiner Söhne zu entgehen, warum er nicht mehr arbeitet und warum sie sich das Schulgeld wahrscheinlich nicht mehr leisten können.

Das Gehalt für Content-Moderatoren betrug 392 Euro pro Monat, wobei Menschen ohne kenianischen Pass zusätzlich eine kleine Auslandszulage erhielten.

Schlecht ausgebildete Betreuer

Der Auftragnehmer von Facebook, das in den USA ansässige Unternehmen Sama, habe wenig getan, um sicherzustellen, dass den Moderatoren in seinem Büro in Nairobi professionelle posttraumatische Beratung angeboten wurde, so Nkuzimana.

Er sagte, die Berater seien schlecht ausgebildet, um mit dem umzugehen, was seine Kollegen erlebt hätten. Jetzt, da er keine psychologische Betreuung habe, gehe er stattdessen in die Kirche.

Die Facebook-Muttergesellschaft Meta (NASDAQ:META) hatte erklärt, dass ihre Vertragspartner vertraglich verpflichtet seien, ihre Mitarbeiterinnen und Mitarbeiter über dem Industriestandard zu bezahlen und vor Ort Unterstützung durch geschulte Therapeuten anzubieten. Ein Sprecher sagte, Meta könne den Fall in Kenia nicht kommentieren.

Logo der Facebook-Muttergesellschaft Meta AP

In einer E-Mail an AP erklärte Sama, dass die in Kenia angebotenen Gehälter viermal so hoch seien wie der örtliche Mindestlohn und dass "über 60 Prozent der männlichen und über 70 Prozent der weiblichen Angestellten unterhalb der internationalen Armutsgrenze" (weniger als 1,74 Euro pro Tag) gelebt hätten, bevor sie eingestellt worden seien.

Sama teilte mit, alle Mitarbeiter hätten uneingeschränkten Zugang zu persönlicher Beratung "ohne Angst vor Konsequenzen".

"Eine ausbeuterische Industrie"

Der Auftragnehmer bezeichnete auch einen kürzlich ergangenen Gerichtsbeschluss zur Verlängerung der Verträge der Moderatoren als "verwirrend" und behauptete, dass ein späteres Urteil, mit dem diese Entscheidung ausgesetzt wurde, bedeute, dass sie nicht in Kraft getreten sei.

Eine solche Arbeit könne "psychologisch unglaublich schädlich" sein, Arbeitssuchende in Ländern mit geringem Einkommen könnten jedoch das Risiko im Austausch gegen einen Bürojob in der Tech-Industrie eingehen, sagte Sarah Roberts, Expertin für Content-Moderation an der University of California, Los Angeles.

In Ländern wie Kenia, in denen viele billige Arbeitskräfte zur Verfügung stehen, sei die Auslagerung solch sensibler Arbeiten "eine Geschichte einer ausbeuterischen Industrie, die die globale wirtschaftliche Ungleichheit zu ihrem Vorteil ausnutzt, Schaden anrichtet und dann keine Verantwortung übernimmt", weil die Firmen behaupten könnten, niemanden eingestellt zu haben.

Hinzu kommt, dass die psychologische Betreuung möglicherweise nicht die beste ist und Bedenken hinsichtlich der Vertraulichkeit der Therapie geäußert wurden, so Roberts, Professor für Informationsstudien.

Der Unterschied im kenianischen Gerichtsverfahren bestehe darin, dass sich die Content-Moderatoren organisierten und gegen ihre Bedingungen vorgingen, was zu einer ungewöhnlichen Sichtbarkeit führe.

Die übliche Taktik in solchen Fällen in den USA sei es, sich zu einigen, aber "wenn die Fälle an anderen Orten vor Gericht gebracht werden, ist es für die Unternehmen vielleicht nicht so einfach, das zu tun".

Online-Hassreden und Konflikte

Facebook hat weltweit in Moderationszentren investiert, nachdem der Konzern beschuldigt wurde, die Verbreitung von Hassreden in Ländern wie Äthiopien und Myanmar zuzulassen, wo Konflikte Tausende von Menschen töteten und schädliche Inhalte in einer Vielzahl von Landessprachen veröffentlicht wurden.

Die von Sama in Kenia eingestellten Moderatoren, die wegen ihrer Sprachkenntnisse in verschiedenen afrikanischen Sprachen gesucht wurden, sahen sich bald mit grafischen Inhalten konfrontiert, die sie schmerzlich berührten.

Wenn du vor dem Krieg wegläufst, musst du den Krieg sehen. Für uns war das eine reine Qual.

Fasica Gebrekidan Flüchtling aus Tigray und ehemalige Content-Moderatorin für Facebook

Die zwei Jahre, in denen Fasica Gebrekidan als Moderatorin arbeitete, überschnitten sich ungefähr mit dem Krieg in der nördlichen Tigray-Region ihres Heimatlandes Äthiopien, wo Hunderttausende getötet wurden und Tigrayer wie sie wenig über das Schicksal ihrer Angehörigen wussten.

Die 28-Jährige litt bereits darunter, dass sie vor dem Konflikt fliehen musste, und verbrachte ihren Arbeitstag damit, sich Videos und andere Inhalte anzusehen, die überwiegend mit dem Krieg zu tun hatten, darunter auch Vergewaltigungen.

Bei Videos musste sie sich die ersten 50 Sekunden und die letzten 50 Sekunden ansehen, um zu entscheiden, ob der Inhalt entfernt werden sollte. Das Gefühl der Dankbarkeit, das sie bei der Anstellung hatte, verschwand schnell. "Du läufst vor dem Krieg weg, dann musst du den Krieg sehen", sagte Fasica, "es war einfach eine Qual für uns".

"Facebook sollte sich um uns kümmern"

Sie hat jetzt kein Einkommen und keine feste Bleibe. Sie sagte, sie würde sich nach neuen Möglichkeiten umsehen, wenn sie sich nur wieder normal fühlen könnte. Als ehemalige Journalistin kann sie sich nicht mehr zum Schreiben durchringen, nicht einmal als Ventil für ihre Emotionen.

Fasica macht sich Sorgen, dass "dieser Müll" für immer in ihrem Kopf bleiben wird. Während sie mit AP sprach, blickte sie immer wieder auf ein rotes Gemälde auf der anderen Seite des Cafés, das einen Mann in Not darstellte. Es beunruhigte sie.

Fasica macht Facebook für den Mangel an angemessener psychosozialer Betreuung und Bezahlung verantwortlich und beschuldigt den örtlichen Auftragnehmer, sie auszunutzen und zu entlassen. "Facebook sollte wissen, was vor sich geht", sagte sie. "Sie sollten sich um uns kümmern".

Das Schicksal der Klage der Content-Moderatoren liegt beim kenianischen Gericht, die nächste Anhörung findet am 10. Juli statt. Die Ungewissheit ist frustrierend, sagte Fasica. Einige Moderatoren geben auf und kehren in ihre Heimatländer zurück, doch für sie ist das noch keine Option.

Aktuelle Kommentare

Installieren Sie unsere App
Risikohinweis: Beim Handel mit Finanzinstrumenten und/oder Kryptowährungen bestehen erhebliche Risiken, die zum vollständigen oder teilweisen Verlust Ihres investierten Kapitals führen können. Die Kurse von Kryptowährungen unterliegen extremen Schwankungen und können durch externe Einflüsse wie finanzielle, regulatorische oder politische Ereignisse beeinflusst werden. Durch den Einsatz von Margin-Trading wird das finanzielle Risiko erhöht.
Vor Beginn des Handels mit Finanzinstrumenten und/oder Kryptowährungen ist es wichtig, die damit verbundenen Risiken vollständig zu verstehen. Es wird empfohlen, sich gegebenenfalls von einer unabhängigen und sachkundigen Person oder Institution beraten zu lassen.
Fusion Media weist darauf hin, dass die auf dieser Website bereitgestellten Kurse und Daten möglicherweise nicht in Echtzeit oder vollständig genau sind. Diese Informationen werden nicht unbedingt von Börsen, sondern von Market Makern zur Verfügung gestellt, was bedeutet, dass sie indikativ und nicht für Handelszwecke geeignet sein können. Fusion Media und andere Datenanbieter übernehmen daher keine Verantwortung für Handelsverluste, die durch die Verwendung dieser Daten entstehen können.
Die Nutzung, Speicherung, Vervielfältigung, Anzeige, Änderung, Übertragung oder Verbreitung der auf dieser Website enthaltenen Daten ohne vorherige schriftliche Zustimmung von Fusion Media und/oder des Datenproviders ist untersagt. Alle Rechte am geistigen Eigentum liegen bei den Anbietern und/oder der Börse, die die Daten auf dieser Website bereitstellen.
Fusion Media kann von Werbetreibenden auf der Website aufgrund Ihrer Interaktion mit Anzeigen oder Werbetreibenden vergütet werden.
Im Falle von Auslegungsunterschieden zwischen der englischen und der deutschen Version dieser Vereinbarung ist die englische Version maßgeblich.
© 2007-2024 - Fusion Media Limited. Alle Rechte vorbehalten.