Wegen mangelnden Schutzes von Mitarbeitern vor den Folgen verstörender Webinhalte droht Facebook jetzt eine Sammelklage in den USA. Eine ehemalige Moderatorin, die bei dem sozialen Netzwerk anstößige Bilder und Videos sichtete und entfernte, verklagte das Unternehmen wegen einer angeblich durch diesen Job erlittenen posttraumatischen Belastungsstörung.
Facebook-Moderatoren würden täglich mit Tausenden Videos, Bildern und Live-Übertragungen von sexuellem Missbrauch von Kindern, Vergewaltigungen, Folter, Tiersex, Enthauptungen, Suiziden und Morden bombardiert, teilte Klägeranwalt Korey Nelson von der Kanzlei Burns Charest am Montag mit. Das Unternehmen ignoriere seine Pflicht, für die Sicherheit dieser Mitarbeiter zu sorgen, die angesichts der schockierenden Inhalte irreparable traumatische Schäden in dem Job erlitten.
„Wir prüfen die Behauptungen derzeit“, erklärte Facebook in einer Stellungnahme. Das Netzwerk räumte darin ein, dass die Arbeit häufig schwierig sei. „Darum nehmen wir die Unterstützung unserer Moderatoren unglaublich ernst.“ Die Mitarbeiter würden spezielles Training erhalten, zudem biete man ihnen psychologische Hilfe an. Facebook-Angestellten stehe dies hausintern zur Verfügung, von Partnerfirmen würden ebenfalls entsprechende Ressourcen verlangt.
Die Klägerin Selena Scola aus San Francisco arbeitete den Anwälten nach ab Juni 2017 neun Monate im Auftrag einer Zeitarbeitsfirma für Facebook, später sei bei ihr eine posttraumatische Belastungsstörung diagnostiziert worden. Die Kanzlei strebt eine Sammelklage im Namen aller betroffenen Facebook-Mitarbeiter an und fordert unter anderem die Einrichtung eines Fonds für medizinische Tests und Versorgung der Moderatoren.
Hinter den Kulissen der Web-Müllabfuhr
Erst im Mai hatte der deutsche Dokumentarfilm „The Cleaners“ die gigantische Schattenindustrie digitaler Zensur in Manila, dem weltweit größten Outsourcing-Standort für sogenannte Content Moderation enthüllt. Dort löschen Zehntausende Menschen in zehn Stunden Schichten im Auftrag der großen Silicon-Valley-Konzerne belastende Fotos und Videos.
Ob Pornographie, Gewalt oder andere explizite Inhalte - an die 25.000 teils extrem verstörende Bilder und Videos sollen die sogenannten Content Moderatoren jeden Tag sichten und darüber entscheiden, ob diese gegen die Richtlinien von Facebook & Co. verstoßen. „Unsere Aufgabe ist es, die Plattform vom Dreck zu säubern“, wird ein Moderator in der Doku zitiert.
Für die „Aufräumer“ bleibt das nicht ohne Folgen. Die Grausamkeit und die kontinuierliche Belastung der traumatisierenden Arbeit verändert ihre Wahrnehmung und Persönlichkeit: „Einige der Videos haben sich in mein Gedächtnis gebrannt“, schildert einer von fünf Content Moderatoren, deren Geschichte der Film von Hans Block und Moritz Riesewieck erzählt. „Ich wollte sofort hinschmeißen“, sagt eine Kollegin.
Streng gehütetes Geheimnis
Über ihre Erfahrungen sprechen dürfen die „Müllmänner und -frauen des Internets“ allerdings nicht. Die Kriterien und Vorgaben, nach denen sie die Inhalte löschen, sind eines der am besten geschützten Geheimnisse des Silicon Valley. Beobachter sehen das kritisch: „Wir laufen Gefahr, die Demokratie zu verlieren“, so ein ehemaliger Mitarbeiter eines sozialen Netzwerks.
„Hier läuft was falsch“
„Durch gezielte Verstärkung und Vervielfältigung jeglicher Art von Emotionen, werden die Plattformen zu gefährlichen Brandbeschleunigern, die soziale, politische und gesellschaftliche Konflikte anheizen und die drohende Spaltung unserer Gesellschaft vorantreiben“, kritisieren die Filmemacher und stellen die drängende Frage nach den Grenzen des Einflusses von Facebook, YouTube, Twitter & Co auf uns und unsere Gesellschaften. Oder wie es eine Protagonistin zusammenfasst: „Hier läuft was falsch.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.