Bislang galten sie als Spielerei, doch inmitten des Ukraine-Krieges bergen sogennante Deepfakes, also mittels künstlicher Intelligenz erstellte Videos, politischen und sozialen Zündstoff. Sie zu erstellen, ist in den vergangenen Jahren immer einfacher geworden.
Deepfakes sind Videos, die mittels künstlicher Intelligenz erstellt werden. Sie tauchten erstmals 2017 auf - damals noch als relativ leicht zu entlarvender Spaß, um die Gesichter Prominenter in Porno-Videos auf fremde Körper zu setzen. Doch die Technologie hat sich inzwischen weiter entwickelt, liefert immer bessere, sprich täuschendere Ergebnisse und ist zudem selbst von Laien einsetzbar.
Eine vergleichsweise einfache Methode ist, die Aufnahme vom Gesicht eines Menschen auf die Aufnahme vom Körper eines anderen Menschen zu setzen. Sie kann mit populären Apps wie Snapchat, Reface oder FaceMagic erfolgen. Die zweite Methode ist komplexer; bei ihr wird ein Gesicht nachgeahmt: Ein Schauspieler verwendet ein Originalvideo vom Gesicht eines Opfers, um dessen Bewegungen zu imitieren und Haltung oder Gesichtsausdruck zu verändern.
Die dritte Methode setzt auf manipulierte Lippenbewegung. Dadurch scheint ein Mensch etwas zu sagen, was er tatsächlich nie gesagt hat. Zum Einsatz kommt zusätzlich die Stimme eines Menschen, der die Stimme des Opfers nachahmt oder eine Stimme, die mittels künstlicher Intelligenz erzeugt wurde. Experten sprechen hierbei von Deepvoice oder Sprachsynthese, die bereits kommerziell Verwendung findet.
Bei allen drei Methoden untersucht das Programm die Gesten, die Mimik und teils auch die Stimme des Opfers. Sekunde für Sekunde lernt sie anhand der Bilder des Originalvideos. Sie überlagert, reproduziert und bearbeitet sie dann mit anderen Bildern. Je mehr Informationen eingegeben werden, desto realistischer wird der Deepfake.
Die Filmindustrie setzt diese Technik ein, um Schauspieler etwa jünger wirken zu lassen. Deepfakes können aber auch für Betrügereien verwendet werden. Auch die Gefahr der politischen Manipulation und der Desinformation ist groß, zumal das Gesichtstausch-Verfahren live vorgenommen werden kann.
Experte warnte bereits 2019 vor Deepfakes
Clint Watts vom Foreign Policy Research Institute in den USA hatte daher bereits 2019 gewarnt, dass Deepfakes „zu physischen Mobilisierungen unter falschen Vorwänden anstacheln, Krisen der öffentlichen Sicherheit und Gewaltausbrüche auslösen" könnten.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.