„Mit welchem Programm würden Sie ein verdächtiges Bild auf Manipulationen hin untersuchen?“ - Auf diese Frage ist die häufigste Antwort Schweigen. Ein Werkzeug, mit dem man Bilder verändern kann, hat hingegen jeder im Kopf, sagt Martin Boyer. Er leitet das Projekt defalsif-AI, in dessen Rahmen Werkzeuge zur Erkennung von Falschinformationen entwickelt werden.
„Ziel ist, die Demokratie und demokratische Institutionen mit technischen Mitteln dabei zu unterstützen, digitale Inhalte zu überprüfen beziehungsweise zu verifizieren und darauf aufbauend Entscheidungen zu treffen“, beschreibt Boyer, der als Senior Research Engineer am AIT Austrian Institute of Technology arbeitet. Letztendlich könnten die Tools auch der breiten Bevölkerung zur Verfügung gestellt werden.
Wichtig sei, eine einfache Anwendbarkeit zu gewährleisten. Konkret lädt man auf einer Website die Inhalte hoch oder gibt die Webadresse an, ergänzt Hintergrundinformation und drückt den Startknopf. Die Zusatzinfos helfen dem System, die richtigen Analysemethoden und -tools auszuwählen. Das könnte ein Hinweis sein, was man gerne ausgewertet haben will, also beispielsweise „Audio“ oder dass es sich um ein Porträtbild handelt. Würde beispielsweise ein Detektor für Landschaftsbilder auf ein Porträtbild angewendet, wären die Ergebnisse vielleicht nicht besonders aussagekräftig, weil dieses Modul nicht darauf ausgelegt ist, erklärt Boyer.
Anhaltspunkte für Manipulationen
Anschließend sucht das System auf technischer Ebene nach Anhaltspunkten dafür, dass es sich um Desinformation oder manipulierte Inhalte handelt. „Ein sehr einfacher Hinweis ist, wenn jemand mit einem bestimmten Bildbearbeitungsprogramm etwas nachbearbeitet und das anhand der Metadaten sichtbar ist. Auch wenn Pixel manipuliert oder Bilder oft komprimiert werden, hinterlässt das Spuren“, so der Experte. Im aktuellen Projekt arbeite man sehr stark mit Machine Learning-Komponenten, die auf Datensätze trainiert werden, die solche Manipulationen beinhalten.
Die Detektoren müssen laufend optimiert werden, weil die Fälschungsmethoden besser werden.
Martin Boyer, AIT
Derzeit besteht das Angebot aus mehreren Bausteinen, die aber flexibel erweiter- beziehungsweise adaptierbar sein sollen. „Wir versuchen mit unserem Tool ein Ökosystem zu schaffen, mit dem man in Zukunft weitere Analysen und Komponenten hinzufügen kann, auch um das vielleicht von der Community gestützt weiterzuentwickeln. Auf technischer Seite gibt es da keine großen Hürden“, so Boyer. Flexibilität sei auch gefordert, um „das Katz- und Maus-Spiel nicht zu verlieren. Die Detektoren müssen laufend optimiert werden, weil die Fälschungsmethoden besser werden“, streicht der Forscher hervor.
Kein Technikwissen notwendig
Die Ergebnisse der Analyse werden in Form einer Webseite dargestellt. Dabei sei auf Einfachheit und Verständlichkeit geachtet worden, um die Anforderungen an die technische Expertise der Anwender zu minimieren. In einem ersten Schritt bekomme man komprimierte Resultate. Wer sich in einzelne Ergebnisse vertiefen will, könne aber auch Details aufrufen. Eine Herausforderung sei, die Benutzeroberfläche nicht zu überfrachten und gleichzeitig sehr transparent zu agieren. „Mit dem Ergebnis wird auch mitgeteilt, wie das Tool arbeitet, teilweise an welchen Daten es trainiert wurde und was man sich davon erwarten kann“, sagt Boyer.
Darüber hinaus wünscht sich der Experte, „dass Tools wie das unsere einen breiteren und öffentlichen Diskurs anregen und zu bestimmten Fragestellungen einen Beitrag leisten: Also beispielsweise, was kann künstliche Intelligenz leisten und was nicht? Ich glaube, man wird in absehbarer Zeit nicht so weit kommen, dass die Maschine alles entscheiden kann.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.