Start IT/Tech Bei mehr als 140 Facebook-Moderatoren in Kenia wurde eine schwere PTSD diagnostiziert

Bei mehr als 140 Facebook-Moderatoren in Kenia wurde eine schwere PTSD diagnostiziert

7
0
Bei mehr als 140 Facebook-Moderatoren in Kenia wurde eine schwere PTSD diagnostiziert

Mehr als 140 Facebook Bei Inhaltsmoderatoren wurde eine schwere posttraumatische Belastungsstörung diagnostiziert, die durch den Kontakt mit drastischen Social-Media-Inhalten verursacht wurde, darunter Morde, Selbstmorde, sexueller Kindesmissbrauch und Terrorismus.

Moderatoren arbeiteten acht bis zehn Stunden am Tag in einer Einrichtung in Kenia Ian Kanyanya, Leiter der psychiatrischen Dienste am Kenyatta National Hospital in Nairobi, an ein vom Social-Media-Unternehmen beauftragtes Unternehmen und bei ihnen wurde PTSD, generalisierte Angststörung (GAD) und schwere depressive Störung (MDD) diagnostiziert.

Die Massendiagnosen wurden im Rahmen einer Klage gegen Facebooks Muttergesellschaft Meta und Samasource Kenya gestellt, ein Outsourcing-Unternehmen, das mit Mitarbeitern aus der ganzen Welt die Inhaltsmoderation für Meta durchführte. Afrika.

Die Bilder und Videos, darunter Nekrophilie, Bestialität und Selbstverstümmelung, führten dazu, dass einige Moderatoren ohnmächtig wurden, sich übergeben mussten, schrien und von ihren Schreibtischen flohen, heißt es in den Akten.

Der Fall wirft ein Licht auf die menschlichen Kosten des Booms der Social-Media-Nutzung in den letzten Jahren, der zunehmend eine Moderation erfordert, oft in einigen der ärmsten Teile der Welt, um Benutzer vor dem schlimmsten Material zu schützen, das manche Leute posten.

Mindestens 40 der Fallmoderatoren missbrauchten Alkohol, Drogen wie Cannabis, Kokain und Amphetamine sowie Medikamente wie Schlaftabletten. Einige berichteten vom Scheitern ihrer Ehen und vom Zusammenbruch ihres Wunsches nach sexueller Intimität sowie vom Verlust der Verbindung zu ihren Familien. Einige, deren Aufgabe es war, von Terroristen- und Rebellengruppen hochgeladene Videos zu entfernen, befürchteten, beobachtet und ins Visier genommen zu werden und bei ihrer Rückkehr nach Hause gejagt und getötet zu werden.

Facebook und andere große Unternehmen für soziale Medien und künstliche Intelligenz verlassen sich auf Armeen von Content-Moderatoren, um Beiträge zu entfernen, die gegen ihre Community-Standards verstoßen, und um KI-Systeme darauf zu trainieren, dasselbe zu tun.

Moderatoren aus Kenia und anderen afrikanischen Ländern wurden von 2019 bis 2023 damit beauftragt, Beiträge aus Afrika und in ihrer eigenen Sprache zu überprüfen, erhielten jedoch laut Anspruchsunterlagen achtmal weniger als ihre US-Kollegen.

Medizinische Berichte, die dem Arbeits- und Arbeitsbeziehungsgericht in Nairobi vorgelegt und vom Guardian eingesehen wurden, zeichnen ein schreckliches Bild des Arbeitslebens in der von Meta beauftragten Einrichtung, in der die Arbeiter in einem kalten Raum, der einem Lagerhaus ähnelt, mit einem ständigen Strom von Bildern gefüttert wurden, um sie zu überprüfen , unter hellem Licht und mit einer Minute für Minute überwachten Arbeitsaktivität.

Fast 190 Moderatoren präsentieren den vielschichtigen Vorwurf, der Vorwürfe der vorsätzlichen Zufügung psychischer Schäden, unlauterer Beschäftigungspraktiken, Menschenhandel sowie moderner Sklaverei und illegaler Entlassungen umfasst. Bei allen 144 von Kanyanya untersuchten Personen wurde in 81 % der Fälle eine PTBS, GAD und MDD mit schweren oder extrem schweren PTBS-Symptomen festgestellt, meist mindestens ein Jahr nach ihrer Abreise.

Meta und Samasource lehnten es aufgrund des Rechtsstreits ab, sich zu den Vorwürfen zu äußern.

Martha Dark, Gründerin und Co-Geschäftsführerin von Foxglove, einer in Großbritannien ansässigen gemeinnützigen Organisation, die das Gerichtsverfahren unterstützte, sagte: „Die Beweise sind unbestreitbar: Facebook zu moderieren ist ein gefährlicher Job, der bei fast jedem, der dies moderiert, eine lebenslange PTSD verursacht.“ .

„In Kenia traumatisierte es 100 % von Hunderten ehemaligen Moderatoren, die auf PTBS getestet wurden … Wenn wir in einer anderen Branche feststellen würden, dass bei 100 % der Sicherheitskräfte eine durch ihre Arbeit verursachte Krankheit diagnostiziert wird, wären die Verantwortlichen zum Rücktritt gezwungen.“ und mit den rechtlichen Konsequenzen massenhafter Verletzungen der Rechte der Menschen konfrontiert sein. Deshalb unterstützt Foxglove diese mutigen Arbeiter dabei, vor Gericht Gerechtigkeit zu suchen.“

Den Dokumenten aus dem Nairobi-Fall zufolge kam Kanyanya zu dem Schluss, dass die Hauptursache für die psychischen Probleme der 144 Personen ihre Arbeit als Content-Moderatoren für Facebook war, da sie „täglich mit extrem anschaulichen Inhalten konfrontiert wurden, darunter Videos von schrecklichen Morden, Selbstdarstellungen von Gewalt, Selbstmorde, Selbstmordversuche, sexuelle Gewalt, explizite sexuelle Inhalte, körperlicher und sexueller Missbrauch von Kindern, schreckliche Gewalttaten, um nur einige zu nennen.“

Vier der Moderatoren litten unter Trypophobie, einer Abneigung oder Angst vor sich wiederholenden Mustern kleiner Löcher oder Beulen, die starke Ängste auslösen können. Bei einigen entstand die Erkrankung dadurch, dass sie bei der Arbeit an Facebook-Inhalten Löcher in verwesenden Körpern sahen.

Moderation und die damit verbundene Aufgabe, Inhalte zu markieren, sind oft verborgene Teile des Technologiebooms. Für Vertragsarbeiter werden ähnliche, aber weniger traumatisierende Vorkehrungen getroffen, um große Mengen an Bildern von alltäglichen Dingen wie Straßenmöbeln, Wohnzimmern und Autobahnszenen zu markieren, damit in Kalifornien entwickelte KI-Systeme wissen, was sie sehen.

Meta sagte, dass es die Unterstützung von Inhaltsprüfern ernst nimmt. Verträge mit Drittanbieter-Inhaltsmoderatoren auf Facebook und Instagram Detaillierte Erwartungen an die 24-Stunden-Beratung, Schulung und Unterstützung vor Ort sowie den Zugang zu privater Gesundheitsversorgung. Laut Meta lagen die Gehälter in den Märkten, in denen sie tätig waren, über dem Branchenstandard und nutzten Techniken wie Unschärfe, Tonstummschaltung und Schwarzweiß-Rendering, um den Kontakt mit grafischem Material für Personen, die Inhalte auf beiden Plattformen überprüfen, zu begrenzen.

Quelle link

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein