„Als ich damit aufgehört hatte, konnte ich drei Jahre lang niemandem die Hand geben. Ich hatte gesehen, was Menschen tun und wie widerlich sie sind. Ich wollte niemanden berühren. Ich war angewidert von der Menschheit.“ Das sagt Roz Bowden, eine ehemalige Content-Moderatorin, über ihre frühere Arbeit. So wie ihr geht es vielen, die bei Facebook, Twitter und anderen sozialen Medien wegräumen, was Sadisten, Pädophile, Tierquäler und Terroristen hochladen.
Wie die britische TV-Anstalt BBC am Montag berichtet, sind bei Facebook rund 7500 sogenannte Content-Moderatoren im Einsatz - angestellt nicht beim sozialen Netzwerk selbst, sondern bei oft in Billiglohnländern angesiedelten Partnerfirmen. Was sich diese Menschen täglich von Berufs wegen ansehen, zeigt die Abgründe der Menschheit - und hat oft gravierende Folgen.
Die Betroffene Selena Scola, die beim Dienstleister Pro Unlimited als Moderatorin tätig war, hat Facebook deswegen sogar verklagt. Sie hat durch ihre Arbeit, bei der sie Abertausende Stunden in die Abgründe der menschlichen Seele geblickt hat, eine posttraumatische Belastungsstörung entwickelt, wie sie sonst eher Soldaten nach Einsätzen in Kriegsgebieten trifft.
„Wir sollten kollektiv besorgt darüber sein“
Scola ist nur eine von vielen. „Es gibt noch keine öffentlichen Studien über die Langzeitfolgen dieser Arbeit. Wir sollten aber kollektiv sehr besorgt darüber sein, was das langfristig bedeutet“, sagt Sarah Roberts, die sich an der University of California mit Content-Moderation beschäftigt. Die Expertin glaubt, dass Moderatoren auch nach Jahren noch psychische Probleme entwickeln können, weil sie immer noch von den grausigen Bildern verfolgt werden, die sie beruflich gesehen haben.
Das Bewusstsein für die Folgen dieser Arbeit wächst. Das war nicht immer so. Bowden, die schon vor Jahren beim längst geschlossenen sozialen Netzwerk MySpace als Moderatorin gearbeitet hat, erinnert sich an die Anfänge. Sie habe ihren Teamkollegen einst gesagt: „Es ist okay, wenn ihr rausgeht. Es ist okay, wenn ihr weint. Übergebt euch nur bitte nicht auf meinen Boden.“
Facebook beschäftigt Psychologen für Moderatoren
Heute geht man - etwa bei Facebook - professioneller vor. Das Netzwerk achtet darauf, zart besaitete Persönlichkeiten gar nicht erst als Moderator zu beschäftigen. Partnerfirmen haben die Vorgabe, neue Moderatoren zumindest 80 Stunden lang auf ihre Arbeit vorzubereiten. Außerdem beschäftigt Facebook vier klinische Psychologen, an die sich die Moderatoren wenden können. Allerdings werden deren Dienste kaum in Anspruch genommen.
„Es ist eine Voraussetzung für den Job, dass man damit zurechtkommt, und die Mitarbeiter wollen nicht, dass ihr Arbeitgeber mitbekommt, dass sie das nicht tun“, erklärt Roberts. Wer zum Psychologen gehe, fühle sich schnell innerhalb der Firma stigmatisiert. Da nehmen viele der „unbekannten Helden, die Facebook für den Rest von uns sicher machen“, wie das soziale Netzwerk seine Moderatoren in einem Blogeintrag genannt hat, ihren Kummer lieber mit nach Hause.
Ihr Job nimmt Moderatoren oft enorm mit
Wohin das führen kann, offenbaren die Berichte deutschsprachiger Content-Moderatoren, die in Berlin um 8,50 Euro pro Stunde beim Dienstleister Arvato wegräumen, was auf Facebook hochgeladen wird und nicht den Firmenrichtlinien entspricht. Einer berichtet: „Mir sind plötzlich büschelweise die Haare ausgefallen, nach dem Duschen oder selbst in der Arbeit. Mein Arzt sagte: Du musst raus aus diesem Job!“
Eine Kollegin: „Seit ich Kinderpornovideos gesehen habe, könnte ich eigentlich Nonne werden - an Sex ist nicht mehr zu denken. Seit über einem Jahr kann ich mit meinem Partner nicht mehr intim werden. Sobald er mich berührt, fange ich an zu zittern.“
Viele halten dem Druck nicht stand. „Immer wieder sind Leute vom Schreibtisch aufgesprungen, in die Küche gerannt und haben das Fenster aufgerissen, um nach einem Enthauptungsvideo ein bisschen frische Luft zu atmen. Viele haben gesoffen oder exzessiv gekifft, um damit klarzukommen“, berichtet ein Moderator.
Künstliche Intelligenz soll irgendwann übernehmen
Dass die undurchsichtigen Regeln und die Bilder und Videos, auf die sie angewandt werden sollen, die Moderatoren zutiefst verstören, weiß Facebook. Der US-Konzern vertröstet mit der Vision, eines Tages werde künstliche Intelligenz diese Aufgabe übernehmen. Dann müssten sich keine Menschen mehr mit all dem auseinandersetzen. Doch bis es so weit ist, zerbrechen die Moderatoren reihenweise an ihrer Arbeit.
Ein Aussteiger erinnert sich an seinen letzten Tag. Er musste die Tötung eines dreijährigen Kindes mit einem Schlachtermesser mit ansehen. „Ich habe selbst ein Kind. Es könnte dieses sein. Ich muss nicht mein Gehirn zerstören wegen dieses Scheißjobs. Ich habe alles ausgeschaltet und bin einfach rausgelaufen. Ich habe meine Tasche genommen und bin heulend bis zur Straßenbahn gelaufen.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.