Mehr als ein Dutzend US-Staaten haben jüngst Klage gegen TikTok eingereicht. Die Kurzvideo-App soll, so der Vorwurf, Kinder und Jugendliche süchtig machen. TikTok weist die Vorwürfe zurück, doch nicht für die Öffentlichkeit bestimmte und nun durchgesickerte interne Dokumente zeigen: Der Konzern dürfte seit Jahren um die Gefahr wissen, die von seinem Algorithmus ausgeht.
Die Generalstaatsanwälte von 13 US-Staaten und der Hauptstadt Washington hatten vor wenigen Tagen Klage gegen die Tochterfirma des chinesischen ByteDance-Konzerns eingereicht – krone.at berichtete. Sie werfen TikTok vor, seine Plattform mit Absicht so gestaltet zu haben, dass Kinder und Jugendliche immer mehr Zeit dort verbringen wollten. Verwiesen wurde in diesem Zusammenhang auf Funktionen wie die Möglichkeit, mit automatisch startenden Videos immer weiter zu scrollen. Das mache gerade Kinder süchtig nach mehr, argumentieren sie.
TikTok, das sich in den USA aktuell bereits gegen ein Gesetz wehrt, das einen Eigentümerwechsel erzwingen soll, wies die Vorwürfe zurück und entgegnete, es gebe robuste Sicherheitsvorkehrungen und Einschränkungen für die Zeit, die junge Nutzer auf der Plattform verbringen. Doch die laut Jugend-Internet-Monitor auch hierzulande von fast zwei Dritteln der Kinder und Jugendlichen in Österreich genutzte Anwendung dürfte die Öffentlichkeit über die Gefahren und Risiken, die von ihr ausgehen, getäuscht haben.
In weniger als 35 Minuten angefixt
Das geht aus internen Dokumenten hervor, die Teil der mehr als zwei Jahre dauernden Untersuchung von TikTok durch die 14 Generalstaatsanwaltschaften sind und aufgrund einer fehlerhaften Schwärzung bei der Einreichung der Klage im US-Staat Kentucky nun vom Rundfunk-Verbund NPR (National Public Radio) eingesehen und trotz einer Vertraulichkeitsvereinbarung zwischen den US-Staaten und TikTok veröffentlicht wurden.
Die rund 30 Seiten nun nicht mehr ganz so geheimer Dokumente – hauptsächlich Zusammenfassungen interner Studien und Mitteilungen – zeigen, dass TikTok um das große Suchtpotenzial seiner Plattform sowie den Gefahren und Risiken potenziell schädlicher Inhalte für seine minderjährigen Nutzer wusste, aber trotzdem kaum Maßnahmen dagegen ergriff.
Demnach hat TikTok etwa die genaue Anzahl der Videoaufrufe ermittelt, die nötig sind, um eine Gewohnheit zu etablieren und Nutzer vor den Smartphone-Bildschirm zu fesseln, nämlich 260. Danach, so die staatlichen Ermittler, „ist es wahrscheinlich, dass ein Nutzer süchtig nach der Plattform wird“.
In dem zuvor redigierten Teil der Klageschrift sagen die Behörden von Kentucky: „Das mag zwar beträchtlich erscheinen, aber TikTok-Videos können nur acht Sekunden lang sein und werden den Zuschauern automatisch in schneller Folge abgespielt.“ Somit werde ein durchschnittlicher Benutzer „wahrscheinlich in weniger als 35 Minuten süchtig nach der Plattform“, zitiert NPR.
Zwanghafte Nutzung und ihre Folgen
Ein weiteres internes Dokument zeigt, dass sich das Unternehmen bewusst war, dass die vielen Funktionen, die junge Menschen bei der App halten sollen, zu einem ständigen und unwiderstehlichen Drang führen, die App immer wieder zu öffnen. TikToks eigene Forschung besagt, dass „zwanghafte Nutzung mit einer Reihe negativer Auswirkungen auf die psychische Gesundheit korreliert, wie dem Verlust von analytischen Fähigkeiten, Gedächtnisbildung, kontextbezogenem Denken, Konversationstiefe, Empathie und erhöhter Angst“, heißt es in der Klage.
Darüber hinaus zeigen die Dokumente, dass TikTok sich bewusst war, dass „zwanghafte Nutzung auch wesentliche persönliche Pflichten wie ausreichenden Schlaf, Arbeit/Schule und die Verbindung mit geliebten Menschen beeinträchtigt“.
Gegenmaßnahmen „nicht ganz so nützlich“
„Unser Ziel ist es nicht, die verbrachte Zeit zu reduzieren“, wird denn auch ein TikTok-Projektmanager in den Unterlagen zitiert. In einer Chat-Nachricht, die diese Meinung widerspiegelt, sagte ein anderer Mitarbeiter, das Ziel sei es, „zur Bindung der Nutzer beizutragen“.
Eigens von TikTok produzierte Videos, die die Nutzer dazu bringen sollen, mit dem endlosen Scrollen aufzuhören und eine Pause einzulegen, wurden dementsprechend wenig beworben. Ein leitender Angestellter räumte dem Bericht nach ein, dass diese Videos zwar „ein gutes Gesprächsthema“ für politische Entscheidungsträger, aber ansonsten „nicht ganz so nützlich“ seien.
Gleiches gilt für ein von TikTok entwickeltes Tool, das die Nutzungsdauer der App standardmäßig auf 60 Minuten pro Tag beschränkt. Die publik gewordenen Dokumente zeigen jedoch, dass TikTok den Erfolg dieses Tools daran bemessen hat, wie es „das öffentliche Vertrauen in die TikTok-Plattform über die Medienberichterstattung verbessert“ - und nicht daran, wie es die Zeit, die Jugendliche mit der App verbringen, reduziert.
Interne Tests zeigten, dass das Tool nur geringe Auswirkungen auf die tatsächliche Nutzungszeit hatte – sie sank lediglich um etwa 1,5 Minuten, wobei die Jugendlichen vorher etwa 108,5 Minuten täglich auf TikTok verbrachten und mit dem Tool etwa 107 Minuten. Laut der Beschwerde des Generalstaatsanwalts habe TikTok dieses Thema daraufhin „nicht erneut aufgegriffen“, so NPR.
Schönes bevorzugt
Im Mittelpunkt des in mehreren Bundesstaaten geführten Rechtsstreits gegen TikTok stehen auch die Schönheitsfilter des Unternehmens, die Benutzer über Videos legen können, um schlanker und jünger auszusehen oder um vollere Lippen und größere Augen zu haben. Einer von ihnen, der sogenannte „Bold Glamour“-Filter, nutzt beispielsweise Künstliche Intelligenz, um die Gesichter von Personen so zu verändern, dass sie Models mit hohen Wangenknochen und ausgeprägter Kieferpartie ähneln.
Wie aus den Dokumenten hervorgeht, ist sich TikTok des Schadens bewusst, den diese Schönheitsfilter jungen Nutzern zufügen können. Intern propagierten deshalb Mitarbeiter, „den Nutzern Lehrmaterial über Selbstbildstörungen bereitzustellen“ und eine Kampagne zu starten, „um das Bewusstsein für Probleme im Zusammenhang mit geringem Selbstwertgefühl (verursacht durch übermäßigen Filtergebrauch und andere Probleme) zu schärfen“.
Sie schlugen außerdem vor, den Filtern ein Banner oder Video vorzuschalten, das „eine Aufklärungserklärung zu Filtern und der Bedeutung eines positiven Körperbildes/einer positiven psychischen Gesundheit“ enthält. Geschehen ist dies jedoch nicht – im Gegenteil: Die Dokumente enthüllen vielmehr, dass der Algorithmus der App gezielt schöne Menschen bevorzugt.
Ein interner Bericht, der TikToks Hauptvideo-Feed analysierte, zeigte, dass „eine große Anzahl (…) nicht attraktiver Motive“ den Feed aller Nutzer füllte. Als Reaktion darauf stellten Ermittler aus Kentucky fest, dass TikTok seinen Algorithmus überarbeitete, um Nutzer in den Vordergrund zu rücken, die das Unternehmen als schön ansah.
„Indem [TikTok] den TikTok-Algorithmus geändert hat, um weniger ,nicht attraktive Motive‘ im ,Für dich‘-Feed anzuzeigen, hat das Unternehmen aktive Schritte unternommen, um eine enge Schönheitsnorm zu fördern, auch wenn sich dies negativ auf seine jungen Nutzer auswirken könnte“, werden die Behörden von Kentucky zitiert. Währenddessen erklärte TikTok nach außen hin, dass eine seiner „wichtigsten Verpflichtungen die Unterstützung der Sicherheit und des Wohlbefindens von Teenagern“ sei.
Des Schlafs, Essens und Augenkontakts beraubt
Welche Auswirkungen der TikTok-Algorithmus stattdessen auf diese haben könnte, erklärte eine namentlich nicht genannte Führungskraft des Unternehmens den Unterlagen zufolge mit drastischen Worten: Der Grund, warum Kinder TikTok anschauten, sei die Macht des Algorithmus der App, „aber ich denke, wir müssen uns darüber im Klaren sein, was das für andere Möglichkeiten bedeuten könnte. Und wenn ich von anderen Möglichkeiten spreche, dann meine ich wortwörtlich den Schlaf, das Essen, sich im Zimmer zu bewegen und jemandem in die Augen zu schauen.“
„Wettrüsten um Aufmerksamkeit“
TikToks eigene Untersuchungen kamen zu dem Schluss, dass Kinder am anfälligsten dafür sind, in den endlosen Video-Feed der App hineingezogen zu werden. „Wie erwartet, ist die Leistung bei den meisten Engagement-Kennzahlen umso besser, je jünger der Benutzer ist“, heißt es in einem Dokument der Kurzvideo-App, die sich laut einer internen Präsentation in einem „Wettrüsten um Aufmerksamkeit“ befindet, aus dem Jahr 2019.
Dessen ungeachtet agierte das Unternehmen bei der Löschung von Konten von Benutzern, bei denen der Verdacht besteht, dass sie unter 13 Jahre alt sind, zurückhaltend. In einem internen Dokument zu „jüngeren Benutzern/U13“ heißt es, TikTok habe seine Moderatoren angewiesen, bei Meldungen über minderjährige Benutzer keine Maßnahmen zu ergreifen, es sei denn, ihr Konto kennzeichnet sie als unter 13 Jahre alt.
Schädliche Inhalte
Problematisch ist dies vor allem deshalb, weil TikTok den Dokumenten zufolge auch bei der Löschung potenziell schädlicher Inhalte schleißig ist. So verweist eine eigene Studie auf Selbstverletzungsvideos, die mehr als 75.000 Mal angesehen wurden, ehe TikTok sie identifizierte und entfernte. Zugleich zeigt sich den Unterlagen zufolge, dass viele schädliche Inhalte, die etwa Essstörungen, Drogenkonsum, gefährliches Fahren oder Blut und Gewalt zum Inhalt haben, entgegen den offiziellen Gemeinschaftsrichtlinien der Plattform sehr wohl „erlaubt“ sind.
Oft seien die Inhalte auf TikTok auffindbar und nur nicht „empfohlen“, was bedeute, dass sie nicht in den „Für dich“-Feeds der Benutzer angezeigt würden oder im Algorithmus eine niedrigere Priorität hätten, schreibt NPR unter Verweis auf die fehlerhaft geschwärzten Dokumente. Demnach räumt TikTok intern ein, dass es erhebliche „Leckraten“ von gesetzeswidrigen Inhalten gibt, die nicht entfernt werden.
Zu diesen „Leckraten“ zählen dem Bericht nach unter anderem die „Normalisierung von Pädophilie“ (35,71 Prozent), „sexuelle Belästigung Minderjähriger“ (33,33 Prozent), „körperliche Misshandlung Minderjähriger“ (39,13 Prozent), die „Verherrlichung von sexuellem Missbrauch Minderjähriger“ (50 Prozent) oder die „Fetischisierung Minderjähriger“ (100 Prozent).
TikTok: Veröffentlichung „höchst unverantwortlich“
TikTok selbst wies die Vorwürfe abermals zurück und verwies seinerseits auf „robuste Sicherheitsvorkehrungen“, zu denen das proaktive Entfernen von verdächtigen minderjährigen Nutzern gehört, sowie „freiwillige Sicherheitsfunktionen“ wie die Möglichkeit zur Beschränkung der Bildschirmzeit. Mehr noch: Die Kurzvideo-App geißelte die Veröffentlichung der unter Gerichtsverschluss stehenden Dokumente durch NPR als „höchst unverantwortlich“.
„Leider“, zitierte der Radio-Verbund einen Unternehmenssprecher, „werden in dieser Beschwerde irreführende Zitate herausgepickt und veraltete Dokumente aus dem Zusammenhang gerissen, um unser Engagement für die Sicherheit der Bevölkerung falsch darzustellen.“ Welche der beiden Seiten am Ende Recht behält, haben nun die Gerichte zu klären.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.