Droht Kontrollverlust?

Turing-Preisträger Bengio warnt vor „Schurken-KIs“

Digital
08.05.2024 14:22

Es könnte noch ein paar Jahre oder auch Jahrzehnte dauern, bis Künstliche Intelligenz (KI) quasi „übermenschlich“ wird. Vorbereiten müsste man sich jedenfalls bereits jetzt darauf, zeigte sich der oft als „KI-Pate“ titulierte Informatiker Yoshua Bengio überzeugt. Er plädiert für multilaterale, unabhängige KI-Labore, die sich auf das mögliche Auftauchen von „Schurken-KIs“ vorbereiten und diese im Fall der Fälle bekämpfen.

Dass zukünftige Systeme eine existenzielle Bedrohung für die Menschheit darstellen würden, sei nicht zwangsläufig so, aber „beim derzeitigen Stand der Technik ist eine Gefährdung der Demokratie, der nationalen Sicherheit und der Verlust der Kontrolle an übermenschliche KI-Systeme sehr plausibel. Das ist keine Science-Fiction“, so Bengio, Professor an der Universität Montréal (Kanada) und Vorreiter im Bereich Deep Learning, also dem Training mit großen Datenmengen zur Lösung komplexer Aufgaben. Umso bedeutender sei es, sich auf die möglichen Risiken vorzubereiten.

„Turing Award“-Preisträger Bengio mahnt zur Vorbereitung auf „übermenschliche“ KI-Systeme.  (Bild: AFP/APA/ANDREJ IVANOV)
„Turing Award“-Preisträger Bengio mahnt zur Vorbereitung auf „übermenschliche“ KI-Systeme. 

Aktuell werde viel über Deepfakes, das sind realistisch wirkende Stimmen, Bilder oder Videos, die mittels KI erstellt oder bearbeitet werden, diskutiert – etwa im Hinblick auf die Manipulation von Wahlen. Größere Sorgen machen dem kanadischen Experten Dialogsysteme, die eingesetzt werden, Menschen zu überzeugen. „Es gibt bereits einige Studien, die darauf hindeuten, dass sie vergleichbare oder bessere Leistungen erbringen als Menschen, wenn es darum geht, jemanden dazu zu bringen, seine Meinung zu einem bestimmten Thema zu ändern“, sagte Bengio. Die Interaktionen könnten dabei für jede Person individuell gestaltet werden.

Angst vor KI-Waffensystemen
Sicherheitsbehörden in aller Welt würde wiederum die leichte Verfügbarkeit von Wissen zu denken geben. „Die Systeme könnten missbraucht werden, alle Arten von Waffen zu entwerfen oder zu bauen“, so Bengio, der 2018 zusammen mit Geoffrey Hinton und Yann LeCun mit dem Turing Award, einer der in der Informatik höchst angesehenen und prestigeträchtigsten Auszeichnungen, geehrt wurde. Die Palette reiche von Cyberangriffen bis hin zu biologischen und chemischen Waffen. Es herrsche Sorge darüber, dass KI-Unternehmen nicht über ausreichende Sicherheitsvorkehrungen verfügen.

Zitat Icon

Wenn es Terroristen dadurch leichter gemacht wird, wirklich schlimme Dinge zu tun, dann müssen wir Entscheidungen mit Bedacht treffen.

Informatiker Yoshua Bengio

Natürlich gebe es auch immense Vorteile und Chancen durch KI, das sei gar nicht das Thema. „Aber wenn es Terroristen dadurch leichter gemacht wird, wirklich schlimme Dinge zu tun, dann müssen wir Entscheidungen mit Bedacht treffen. Und es sollte nicht der CEO eines Unternehmens sein, der diese Entscheidungen trifft“, sagte der Experte, der gestern, Dienstagabend, auch einen Vortrag im Rahmen der Feierlichkeiten zum 20-jährigen Jubiläum der Fakultät für Informatik und zum 50-jährigen Jubiläum der Informatik-Lehre an der Universität Wien gehalten hat.

Warnung vor dem „Selbsterhaltungsziel“
Am beängstigenden sei aber der mögliche Kontrollverlust an übermenschliche KI-Systeme, die sich außerhalb des Computers, auf dem sie laufen, verbreiten, zudem lernen könnten, Menschen zu manipulieren, und letztendlich vielleicht sogar selbst Roboter oder andere industrielle Geräte steuern. Wenn es gelinge, KI-Systeme zu entwickeln, die smarter sind als die Menschen und ein „Selbsterhaltungsziel“ verfolgen, „dann ist das so, als ob wir eine neue Spezies erschaffen – und das ist keine gute Idee. Zumindest bis wir die Folgen besser verstehen. Wie groß das Risiko ist, weiß niemand. Aber das ist ein Teil des Problems“, erläuterte Bengio.

Wie schnell sich die Technologie in diese Richtung weiterentwickeln werde, sei umstritten. Schätzungen würden zwischen drei Jahren und mehreren Jahrzehnten schwanken. Die aktuell massiven Investitionen könnten den Prozess jedenfalls beschleunigen. Relevant sei letzten Endes nur, „die Risiken in den Griff zu bekommen und dabei zu berücksichtigen, dass, wenn es schnell gehen muss, es zu spät sein könnte, die richtigen Rechtsvorschriften und internationalen Verträge zu schaffen“.

KI-Labore sollen Demokratien vorbereiten
Einen Ansatz, dieser Bedrohung entgegenzuwirken, sieht Bengio darin, ein multilaterales Netzwerk von öffentlich finanzierten, gemeinnützigen KI-Laboren aufzubauen, die sich auf das mögliche Auftauchen von abtrünnigen KI-Systemen vorbereiten. Im Fall der Fälle könnte dann eine sichere und defensive KI dagegen eingesetzt werden. Eine kooperative Gruppe von Demokratien sollte gemeinsam an der Gestaltung mitwirken, weil sich die möglicherweise negativen Auswirkungen der KI nicht an Grenzen halten würden. Entsprechende Verteidigungsmethoden und viele Aspekte der Forschung daran müssten vertraulich behandelt werden, um es der „Schurken-KI“ zu erschweren, die neuen Abwehrmaßnahmen zu umgehen, wie er auch in einem Artikel im „Journal of Democracy“ empfiehlt.

Die größte Wirkung hätte eine KI-Regulierung, bei der die Entwickler nachweisen müssten, dass die KI-Systeme sicher sind und die Kontrolle nicht verloren gehen könne. „Im Moment weiß niemand, wie man das macht. Aber wenn man so etwas vorschreibt, würden die Unternehmen, die ja das Geld und das Talent haben, schon jetzt viel mehr Forschung betreiben, um sichere Systeme zu bauen, und ihre Energie in den Schutz der Öffentlichkeit stecken“, so der Experte. Ein Unternehmen, das neue Medikamente herstelle, müsse schließlich auch wissenschaftlich nachweisen, dass die Anwendung sicher sei. Diese Anstrengungen gebe es in der KI-Industrie aber nicht, weil es im harten Wettbewerb keine Priorität habe.

Letztendlich gebe es noch zahlreiche Herausforderungen im Hinblick auf das wissenschaftliche Verständnis von KI-Sicherheit, aber auch die politische Verantwortung sicherzustellen, dass beim Bau einer sicheren KI, sobald das möglich ist, entsprechende Protokolle befolgt werden. Nur so sei zu erreichen, „dass keine einzelne Person, kein einzelnes Unternehmen und keine einzelne Regierung diese Art von Macht missbrauchen kann“, so Bengio.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

(Bild: krone.at)
(Bild: krone.at)
Kreuzworträtsel (Bild: krone.at)
(Bild: krone.at)



Kostenlose Spiele
Vorteilswelt