Künstliche Intelligenz birgt für die Menschheit das „Risiko der Auslöschung“ - mit dieser Warnung haben sich Hunderte Experten an die Öffentlichkeit gewandt. Unterschrieben haben auch die Chefs von mehreren Firmen, die weltweit die Spitze der KI-Entwicklung bilden. Wie real ist die Gefahr? Und was sagt eine KI selbst dazu?
Das Statement besteht nur aus einem Satz: „Es sollt global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern - auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg.“ Veröffentlicht wurde dieser Appell vom Zentrum für KI-Sicherheit (Center for AI Safety) in San Francisco, unterzeichnet wurde er von der Elite der KI-Entwicklung. Darunter sind Sam Altman, CEO von OpenAI, die Chefs von Google DeepMind und Anthropic, der Technikchef von Microsoft, Taiwans Digitalministerin Audrey Tang sowie zahlreiche KI-Fachleute aus Forschung und Wirtschaft.
Viele Fachleute vereint
Gegenüber der „New York Times“ sagten die Initiatoren, dass die Warnung absichtlich so kurz und allgemein gehalten sei, um möglichst viele Fachleute dahinter vereinen zu können. Darüber, welche Gefahr konkret durch KI droht und welche Abwehrmaßnahmen man dafür ergreifen solle, gehen die Ansichten der Experten wieder auseinander.
Die jüngsten Fortschritte bei den Sprachmodellen - Die KI-Systeme, die von Chatbots wie dem von OpenAI entwickelten ChatGPT verwendet werden - haben Befürchtungen geweckt, dass mithilfe von Künstliche Intelligenz in großem Maßstab Fehlinformation verbreitet werden kann. Zudem wird gewarnt, dass Millionen von Jobs vernichtet werden könnten.
Im „Spiegel“-Interview erklärte OpenAI-Chef Sam Altman kürzlich, er sei „sehr besorgt, dass mithilfe von KI-Systemen biologische Kampfstoffe entwickelt werden könnten“. Entscheidend sei, dass Menschen die Kontrolle über die Technologie behalten. Deren Grenzen sollte in einem demokratischen Prozess bestimmt werden. „Im Übrigen brauchen wir auch als Unternehmen Klarheit und sollten deshalb reguliert werden“, so Altman. Angesichts der bevorstehenden Vorschriften in der EU hat der CEO von OpenAI vergangene Woche allerdings einen Rückzug aus Europa erwogen.
Was sagt die KI selbst dazu?
Und was sagt eine Künstliche Intelligenz selbst zu der potenziellen Gefahr, die von ihr ausgeht? krone.at hat kurzerhand bei dem von OpenAI entwickelten Chatbot ChatGPT nachgefragt, ob es die Menschheit vernichten will. Die KI beruhigt: Sie habe „keine Absichten, Wünsche oder die Fähigkeit“, irgendeiner Form von Leben Schaden zuzufügen. Als Sprachmodell sei es dazu da, Informationen bereitzustellen und bei verschiedenen Aufgaben zu helfen. „Es ist wichtig, sich daran zu erinnern, dass KI ein von Menschen geschaffenes und kontrolliertes Werkzeug ist, dessen Auswirkungen auf die Welt letztlich davon abhängen, wie es von Einzelpersonen und der Gesellschaft genutzt wird“, so der Chatbot im Gespräch (siehe Screenshot).
So weit, so gut. Aber ist das nicht genau das, was eine KI mit bösen Absichten sagen würde? Damit konfrontiert, antwortet der Bot, er „verstehe die Bedenken“, es gebe aber großen Unterschiede zwischen fiktionalen Darstellungen zerstörerischer KI und der realen Technologie. Für diese gebe es „strenge Richtlinien und Sicherheitsmaßnahmen, die verhindern, dass KI-Systeme Schaden anrichten“. Es gelte jedoch, wachsam zu bleiben und offene Diskussionen über die ethische Nutzung und potenzielle Risiken von KI zu führen, so die diplomatische Antwort von ChatGPT.
Auch Yann LeCun, der KI-Chefwissenschaftler des Zuckerberg-Konzerns Meta teilt die Bedenken nicht, die andere Forscher haben. LeCun wollte den Appell nicht unterschreiben und bezeichnet derartige Warnungen als „AI-Doomism“, als KI-Untergangsstimmung. Eines seiner Argumente ist, dass Maschinen, denen man Gesetze auferlegt hätte, diese nicht brechen könnten (siehe Tweet oben).
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.