Deepfakes und Co.

Mozilla kritisiert Defizite bei KI-Kennzeichnung

Web
26.02.2024 07:34

Experten warnen vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von Bildern, Videos und Audio-Aufnahmen, die mithilfe Künstlicher Intelligenz erzeugt wurden. Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein - und seien zugleich relativ einfach zu entfernen, betonte die Internet-Stiftung Mozilla in einem am Montag veröffentlichten Bericht.

Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung. Auch hier gebe es jedoch den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müsse.

Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnte Mozilla-Forscherin Ramak Molavi Vasse‘i. Die sogenannten Deepfakes würden schließlich meistens extra dafür erstellt, um in die Irre zu führen. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben.

Generell sei ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren statt eines einheitlichen Standards.

Mit KI-Software kann man immer realistischere Fotos aus Text-Vorgaben erzeugen. Und inzwischen wird auf diese Weise auch immer häufiger Video generiert - so stellte der ChatGPT-Entwickler OpenAI jüngst seine Video-Software Sora vor. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und oft schwer zu sehen, kritisierte die Mozilla-Expertin.

Angst vor Wahlmanipulation
Insbesondere in diesem Jahr mit der US-Präsidentenwahl und der Europawahl gibt es die große Sorge, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um ihren Ausgang zu beeinflussen. In den USA gab es bereits kurz vor der Vorwahl der Demokratischen Partei im Bundesstaat New Hampshire automatisierte Anrufe, bei denen mit der täuschend echt wirkenden Stimme von Präsident Joe Biden dazu aufgerufen wurde, der Abstimmung fernzubleiben.

Solche Audio-Fakes gelten allein schon deshalb als großes Problem, weil es weniger Möglichkeiten gibt, sie anhand von Fehlern oder Kennzeichen zu erkennen. Es gab bereits Fälle, in denen solche Aufnahmen für den sogenannten Enkel-Trick angewendet wurden, bei dem Kriminelle versuchen, Geld im Namen von Verwandten zu erbeuten.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.



Kostenlose Spiele
Vorteilswelt