Der Grafikkartenspezialist Nvidia hat eine Künstliche Intelligenz entwickelt, die ohne menschliches Zutun verblüffend real wirkende Fake-Videos erstellen kann. Da wird eine Jahreszeit gegen eine andere getauscht oder kurzerhand von Tag auf Nacht gewechselt, ohne dass die Manipulation im Endergebnis auffallen würde.
Wie "The Next Web" berichtet, arbeitet Nvidia bei seiner Videomanipulations-KI mit einer speziellen Methode für maschinelles Lernen. Die Künstliche Intelligenz erkennt dabei ohne menschliches Zutun, welche Manipulationen an einem Video notwendig sind, um eigentlich unveränderlich geglaubte Gegebenheiten wie die Tages- oder Jahreszeit zu manipulieren.
Dass die KI ziemlich gute Arbeit leistet, zeigen einige von ihr manipulierte Videos:
Nvidias KI brauche im Vergleich zu anderen Videomanipulations-Systemen weniger Vergleichsmaterial, um das gewünschte Endergebnis zu erreichen, heißt es in dem Bericht. Doch das System hat auch Schwächen. Etwa, wenn sich die Auflösung des Ausgangsmaterials und jene des Vergleichsmaterials stark unterscheiden oder gewisse Informationen - zum Beispiel Farben in einem Schwarzweißvideo - fehlen.
Dennoch: Nvidias Videomanipulations-KI zeigt, was solche Systeme in Zukunft zu leisten vermögen. Und sie ruft Kritiker auf den Plan, die darin ein mächtiges Werkzeug für Desinformationskampagnen und Fake News sehen.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.