Geschichtsverzerrung

Experten beklagen „Tsunami“ gefälschter Fotos

Web
23.10.2024 07:38

Eine weinende Mutter mit Kind während der Weltwirtschaftskrise, ein Soldat im Vietnamkrieg – solche Motive sind auf Bildern zu sehen, die derzeit in Online-Netzwerken kursieren. Auf den ersten Blick scheinen sie reale historische Momente einzufangen, aber sie sind mit Künstlicher Intelligenz erstellt. Experten befürchten, dass die Geschichte dadurch verzerrt werden könnte.

Auf Facebook kursierte beispielsweise ein Bild, das die Gebrüder Wright, zwei Pioniere der Luftfahrt, nach ihrem ersten Motorflug im Jahr 1903 zeigen soll. Man sieht ein lächelndes Brüderpaar mit blonden Haaren vor einem Flugzeug posieren.

Dagegen sind auf echten Archivfotos zwei Männer mit Schiebermützen zu sehen, die dem blonden Paar nicht ähneln. Auch die Atmosphäre der Fotografien ist ganz anders. Auf den Originalfotos werden sind sie entweder mit ernsten Mienen abgebildet oder sind bloß als ferne Silhouetten zu sehen, die am Prototyp ihres Flugzeugs arbeiten.

„Tsunami gefälschter Geschichte“
Warum wurde dieses gefälschte Foto produziert? Eine Anfrage der Nachrichtenagentur AFP ließ der Urheber der Fälschung unbeantwortet. Allerdings verriet das Bild, welcher Prompt – also welche Anweisung – von ihm in das KI-Programm eingegeben wurde. Demnach sollte eine „feierliche“ Atmosphäre geschaffen werden.

„KI hat einen Tsunami gefälschter Geschichte verursacht, insbesondere im Bereich der Bilder“, beklagt die niederländische Historikerin Jo Hedwig Teeuwissen. In Online-Netzwerken spürt sie unter dem Pseudonym „Fake History Hunter“ falsche Behauptungen oder Vorurteile über geschichtliche Entwicklungen auf.

„In manchen Fällen handelt es sich um KI-Reproduktionen tatsächlich existierender Archivfotos. Das ist wirklich seltsam, besonders wenn die Originale sehr bekannt sind“, wundert sich die Wissenschaftlerin. So wurden mit dem beliebten KI-Bildprogramm Midjourney Fälschungen erstellt, die berühmte Fotografien nachahmen – etwa die Tötung von Lee Harvey Oswald, dem mutmaßlichen Mörder von John F. Kennedy, im Jahr 1963.

Es gibt auch Midjourney-Bilder, die angeblich die Explosion der Hiroshima-Atombombe am 6. August 1945, den Einmarsch von Truppen des Warschauer Pakts in Prag im August 1968 oder das Kolosseum im antiken Rom zeigen – sie alle sind nicht echt.

Den Trend dieser durch KI generierten falschen Archivfotos kritisiert auch Marina Amaral. Die Brasilianerin ist Künstlerin und hat sich auf die Kolorierung alter Fotos spezialisiert. Die Inszenierung von „Ereignissen, die zu lange her sind, um fotografiert werden zu können“ oder Momenten in der Geschichte, die „schlecht dokumentiert“ sind, bereiten ihr Sorgen.

„Das Risiko besteht darin, dass diese falschen Bilder als historische Fakten angesehen werden und dass das im Laufe der Zeit unser Verständnis der Geschichte verändern und das Vertrauen der Öffentlichkeit in (das Bild) als verlässliche Quelle für das Studium der Vergangenheit schwächen wird“, glaubt Amaral.

Noch zu unterscheiden
Noch sind Marina Amaral und Jo Hedwig Teeuwissen überzeugt, dass sie dank ihres Fachwissens und bestimmter Fehler in der Lage sind, das Echte vom Gefälschten zu unterscheiden. KI-generierte Fotos weisen ihren Erkenntnissen zufolge oft noch verräterische Fehler auf: zu viele Finger an einer Hand, nicht vorhandene Details – wie das Fehlen eines Propellers am Flugzeug der Gebrüder Wright – oder andersherum: einen zu perfekten Bildaufbau.

Gewisse Eigenschaften echter Fotografien könne die KI nicht nachahmen, etwa bei Schnappschüssen eines Augenblicks voller Emotionen, urteilt Amaral. „Ihnen fehlt das menschliche Element, die Absicht, der Grund für die Entscheidungen des Fotografen. Obwohl sie visuell überzeugend sind, bleiben diese Bilder hohl“, findet die Künstlerin.

„Gefährliche“ Aussicht
Für Teeuwissen werden „echte Fotos von echten Menschen gemacht und normalerweise ist etwas unscharf, oder jemand sieht aus Versehen albern aus, das Make-up sieht schlecht aus und so weiter“. Die Historikerin schätzt jedoch, dass es „nur eine Frage der Zeit“ ist, bis die Qualität der KI-Bilder Fälschungen mit bloßem Auge schwer erkennbar macht. Das sei eine „gefährliche“ Aussicht, welche die Macht der Desinformation zu stärken drohe.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.



Kostenlose Spiele
Vorteilswelt