Die Urlaubszeit ist jene Zeit, in der wir viele Fotos in den sozialen Netzwerken posten - ob Facebook, Instagram oder Snapchat. Aber Achtung: Cyberkriminelle klauen Fotos und integrieren diese in Sex-Fotos oder gar Pornovideos. Aber es werden nicht nur Aufnahmen von Frauen missbraucht, es werden Videos von Politikern gefälscht oder Interviews von Wirtschaftsmanagern und Firmenchefs manipuliert.
Laut einer aktuellen Analyse des niederländischen IT-Start-ups Sensity (früher Deeptrace)gibt es gegenwärtig 76.781 (Stand 28. August 2020) Fake-Videos im Web - das ist mehr als eine Verfünffachung innerhalb eines Jahres! (14.678 waren es im Juni 2019). Sensity hat sich auf die Detektion von Deepfakes spezialisiert mit dem Ziel, Methoden zur Erkennung von Deepfakes zu entwickeln, um künftig Rufmord besser bekämpfen zu können.
Das sind Deepfakes
Als Deepfakes werden Videos bezeichnet, die manipuliert wurden - entweder werden Text bzw. Ton verändert und/oder es wird das Gesicht eines Menschen auf das Original montiert. Dabei kopieren Cyberkriminelle Fotos (meistens aus Social-Media-Plattformen wie Facebook oder Instagram) und benutzen diese - vor allem Frauen sind Opfer dieser Methode - für sogenanntes Face Swapping.
Die Australierin Noelle Martin wurde Opfer dieses Face Swapping und spielte plötzlich die Hauptrollen in Pornoclips. Martin - sie kämpft in der Zwischenzeit für Frauenrechte - ist überzeugt, dass es Tausende Frauen gibt, die auf die gleiche Art verunglimpft wurden/werden, aber davon nichts wissen.Die Kriminellen schleichen sich über Fake-Accounts ein, stellen eine Freundschaftsanfrage. Wenn man selbst nicht hineinfällt, dann vielleicht ein Freund/eine Freundin - wenn diese nicht die entsprechenden Privacy-Settings aktiviert hat, hat der Cyberkriminelle Zugriff auf Fotos und kann diese nach dem Copy-&-Paste-Prinzip nutzen.
Der Gesichter-Tausch
Die Technologie, die dieses Face Swapping in Videos möglich macht, wurde erstmals 2014 erwähnt, seither boomen die Projekte. Konkret werden bei den verschiedensten Programmen Techniken verwendet, die auf dem sogenannten Generative Adversarial Network (GAN) basieren. GAN generiert aus bestehenden Datensätzen neue. Das heißt: Mithilfe von Machine Learning werden auf Basis von bestehenden Daten neue Daten, etwa auditive oder visuelle Imitationen, kreiert.
„Porno-Technologie“
Wenig überraschend ist, dass sich die Pornoindustrie diese neue Technologie als Erste zunutze machte. Bereits im Jahr 2017 machte ein gefälschtes Pornovideo von Wonder-Woman-Darstellerin Gal Gadot die Runde. Danach folgten Deepfakes mit der Schauspielerin Emma Watson oder der Unternehmerin Kim Kardashian in den Hauptrollen. Eines der größten Opfer von Porno-Deepfakes ist Megan Fox. Die Schauspielerin, die in „Transformers“ die weibliche Hauptrolle gespielt hat, mutierte schnell zur Deepfake-Zielscheibe. Auf Quellenangaben wird hier bewusst verzichtet, da sie auf einschlägige Seiten führen würden.
Diese Beispiele lassen sich leicht mittels Suchbegriff „Deepfakes“ und dem entsprechenden Namen der Schauspieler finden. Aber abseits der Porno-Deepfakes kommen immer mehr Privatpersonen und Politiker hinzu - etwa 4000 Deepfakes betreffen gefälschte Videos von Politikern oder Wirtschaftsmanagern. Bekannt sind etwa das Video, in dem Barack Obama Trump als „Vollidioten“ bezeichnet oder die Aufnahme, in der Nancy Pelosi, die Sprecherin des US-Repräsentantenhauses, völlig volltrunken bzw. verwirrt aussieht.
Viele glauben, was sie sehen
Deepfakes werden in den kommenden Jahren ein riesiges Problem - nicht nur deshalb, weil damit Menschen verunglimpft werden, sondern auch deshalb, weil viele Menschen (Stichwort Fake News) mit solchen Deepfakes manipuliert werden können. Viele glauben das, was sie sehen und hinterfragen nicht, ob das, was sie sehen, auch echt ist oder wahr sein kann. Hinzu kommt: Software, mit der man das Gesicht einer Person in ein Video integrieren kann, gibt es mittlerweile nicht nur zuhauf, sondern kann mittlerweile sehr einfach bedient werden. Und es gibt bereits viele Apps, mit denen Deepfakes mit dem Smartphone erzeugt werden können.
Mehr lesen Sie im Buch „Internet of Crimes“:
Auszüge aus „Internet of Crimes“ wurden krone.at zur Verfügung gestellt.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.