Täuschend echter Fake

Falscher Boris Johnson: „Wählen Sie Jeremy Corbyn“

Digital
13.11.2019 12:14

Die Briten wählen im Dezember ein neues Parlament - und rüsten sich gegen Einflussnahme aus dem Ausland. Welche Instrumente für solche Propaganda-Kampagnen genutzt werden können, zeigt die Denkfabrik Future Advocacy, die sich für die strenge Regulierung Künstlicher Intelligenz (KI) einsetzt. Sie hat Videos veröffentlicht, in denen Tory-Chef Boris Johnson und sein Labour-Rivale Jeremy Corbyn ihren jeweiligen Widersacher als Premier empfehlen. Obwohl sie täuschend echt wirken, handelt es sich um mit Hightech erzeugte Fakes.

Bei diesen sogenannten Deepfakes nutzt man hochspezialisierte KI-Computersysteme und Bilder der Zielperson, um in Videos Gesichter auszutauschen - und Prominente und Politiker Dinge sagen oder tun zu lassen, die sie in Wirklichkeit wohl nie sagen oder tun würden.

Erstaunlich real wirkende Fälschungen
Das Endprodukt ist verblüffend realistisch: Die Politiker aus dem Computer erklären fast lippensynchron und mit der passenden Stimme, dass sie ihren jeweiligen Widersacher gerne als Premier sehen würden. Erst am Ende der Clips wird der Schwindel aufgelöst.

Im Zeitalter gezielter Desinformationskampagnen in sozialen Netzwerken sind solche Videos eine reale Gefahr für die Demokratie. Unbedarfte Wähler könnten sie für echt halten und den zur Wahl stehenden Kandidaten Aussagen zuschreiben, die sie nie getätigt haben. Auf diese Problematik hinzuweisen, ist laut der Denkfabrik auch der Sinn der Aktion.

Twitter-User durchschauten Stimm-Doubles
Wie das IT-Portal „The Daily Dot“ anmerkt, sind die Fake-Clips durchaus zu durchschauen. Vor allem die Stimmen, die von Stimm-Doubles beigesteuert wurden, seien ein Hinweis auf eine Fälschung, bemerkte manch Twitter-Nutzer. Ob das auch politisch wenig interessierte Internetnutzer bemerken würden, sei dahingestellt.

Promi-Gesichter in Sex-Clips
Deepfakes kennt man bislang vor allem aus dem Porno-Bereich: Hier wird die Technologie schon seit vergangenem Jahr von Internetnutzern eingesetzt, um Promi-Gesichter in Sex-Clips zu montieren. Die Technologie kann aber auch für alle möglichen anderen Videomanipulationen eingesetzt werden - und tauscht beispielsweise Schauspieler in Spielfilmen aus.

Auch andere Video-Details lassen sich manipulieren
Dass die Möglichkeiten der KI-Manipulation nicht beim Austauschen von Gesichtern enden, hat zudem der Grafikkartenhersteller Nvidia demonstriert. Er hat eine KI programmiert, die auch andere Details von Videos manipuliert - mit verblüffend echten Ergebnissen. Da wird aus einer Tag- ganz schnell eine Nachtszene, aus einem Sommer- wird ein täuschend echter Wintertag.

Für Future Advocacy ist angesichts der verfügbaren technologischen Möglichkeiten klar, dass von Deepfakes eine Gefahr ausgeht. Sie stellen die Demokratie vor mehrere Herausforderungen, urteilt man dort. Es gehe künftig darum, die Fälschungen zu erkennen, zu verhindern, dass echte Aufnahmen durch die Deepfake-Gefahr pauschal als Fakes abgetan werden, KI-Möglichkeiten zur Videomanipulation zu regulieren und die Schäden an der Demokratie, die durch solche Fakes angerichtet werden könnten, möglichst zu minimieren.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.

(Bild: krone.at)
(Bild: krone.at)
Kreuzworträtsel (Bild: krone.at)
(Bild: krone.at)



Kostenlose Spiele
Vorteilswelt