„Deep Fakes“ & Co.

Europol besorgt: Was, wenn KI Kriminellen hilft?

Digital
22.11.2020 15:41

Methoden der Künstlichen Intelligenz (KI) helfen Behörden etwa in Form von Gesichtserkennung bei ihren Ermittlungen, könnten die Polizeiarbeit laut einer Prognose der europäischen Polizeibehörde Europol, des IT-Security-Spezialisten Trend Micro und des UN-Instituts für Kriminalitätsforschung künftig aber auch schwieriger machen. Cyberkriminelle interessieren sich nämlich genauso wie ihre Jäger für die neuen Tools und haben bereits KI-Tricks im Ärmel. Sogenannte „Deep Fakes“ sind hier nur der Anfang.

Künstliche Intelligenz (KI) bedeutet in der IT-Welt maschinelles Lernen: Ein Computer wird mit großen Datenmengen angelernt, Muster zu erkennen - und nutzt diese Fähigkeit beispielsweise, um schnell eine Person auf einem Foto zu erkennen, Gesichter in Videos perspektivisch korrekt auszutauschen oder um andere Aktionen zu automatisieren und Entscheidungen zu treffen.

Der Europol-Analyse zufolge dürften Cyberkriminelle längst dabei sein, dieses Potenzial zu heben. So drohe beispielsweise bei Angriffen auf Nutzerkonten und Computer eine Welle von Schadsoftware, die durch Maschinenlernen besonders gut beim Erraten von Passworten sein werde. Solche Fähigkeiten werden es als Bestandteile von Virenbaukästen auch in den Untergrund des Darknet schaffen und so Kriminellen KI-Fähigkeiten in die Hand geben, die selbst nicht die Expertise hätten, diese zu entwickeln.

„Deep Fakes“: Wenn Hacker das Gesicht eines Freundes haben
Ein explizit in der Analyse genanntes Beispiel für die Nutzung von KI für kriminelle Machenschaften sind „Deep Fakes“ - verblüffend realistisch gefälschte Fake-Bilder und -Videos, bei denen Gesichter auf Basis unzähliger Fotos der Zielperson so perfekt ausgetauscht werden, dass die Manipulation kaum auffällt. Das wird von Internetnutzern gern an alten Filmen ausprobiert, macht aber auch ganz neue Angriffsszenarien möglich - etwa gefälschte Videobotschaften mit womöglich dramatischen Folgen. Nebst Fake-Nachrichten drohen hier auch Social-Engineering-Attacken, bei denen das Opfer so manipuliert wird, dass es tut, was der Angreifer will.

Man stelle sich vor, ein guter Freund meldet sich in einer Videobotschaft auf WhatsApp und ruft zum Besuch einer bestimmten Website auf. Würden bei einer schlecht übersetzten Phishing-Mail sofort die Alarmglocken schrillen, könnten Deep Fakes auch vorsichtige Nutzer überlisten. Denkbar sei laut der Prognose auch, dass Cyberkriminelle Assistenzsoftware wie Apples Siri, Amazons Alexa oder Googles Assistant kapern und für Manipulationsversuche einsetzen.

Zitat Icon

Cyberkriminelle gehören schon immer zu den ersten Anwendern der neuesten Technologien. Das ist auch bei KI so.

Martin Rösler von Trend Micro

Martin Rösler von Trend Micro: „Cyberkriminelle gehören schon immer zu den ersten Anwendern der neuesten Technologien. Das ist auch bei KI so.“ Bei Europol hat man zu dieser Erkenntnis auch eine Handlungsempfehlung. „In einer Zeit, in der die Öffentlichkeit zunehmend über den möglichen Missbrauch von KI besorgt ist, müssten aber auch die Bedrohungen transparent und unschädlich gemacht werden“, sagt Edvardas Sileris, Chef der Cybercrime-Abteilung bei Europol. Dazu benötige Europol Investitionen in Künstliche Intelligenz und die Entwicklung von Abwehrmethoden.

Die komplette Europol-Analyse zur Nachlese:

Vorboten neuer Bedrohungen sind schon da
Die Zeit drängt, den einen oder anderen Vorgeschmack auf neue Angriffsmethoden - etwa durch „Datenverschmutzung“ oder umgedrehte Gesichtserkennung - gab es schon. Hier nennt Europol in seiner Analyse etwa einen Berliner Künstler, der vor einigen Monaten mit einem Leiterwagen voller Handys einen virtuellen Stau in Google Maps manipulierte. Deep-Fake-Tricks hat man auch bereits so einige gesehen. Vorhandene Bedrohungen wie Ransomware könnten durch KI-Automatisierung zudem noch zielgerichteter und somit effektiver werden.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.

(Bild: krone.at)
(Bild: krone.at)
Kreuzworträtsel (Bild: krone.at)
(Bild: krone.at)



Kostenlose Spiele
Vorteilswelt