Künstliche Intelligenz birgt für die Menschheit das „Risiko der Auslöschung“ - mit dieser Warnung haben sich Hunderte Experten an die Öffentlichkeit gewandt. Unterschrieben haben auch die Chefs von mehreren Firmen, die weltweit die Spitze der KI-Entwicklung bilden. Wie real ist die Gefahr? Und was sagt eine KI selbst dazu?
Das Statement besteht nur aus einem Satz: „Es sollt global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern - auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg.“ Veröffentlicht wurde dieser Appell vom Zentrum für KI-Sicherheit (Center for AI Safety) in San Francisco, unterzeichnet wurde er von der Elite der KI-Entwicklung. Darunter sind Sam Altman, CEO von OpenAI, die Chefs von Google DeepMind und Anthropic, der Technikchef von Microsoft, Taiwans Digitalministerin Audrey Tang sowie zahlreiche KI-Fachleute aus Forschung und Wirtschaft.
Viele Fachleute vereint
Gegenüber der „New York Times“ sagten die Initiatoren, dass die Warnung absichtlich so kurz und allgemein gehalten sei, um möglichst viele Fachleute dahinter vereinen zu können. Darüber, welche Gefahr konkret durch KI droht und welche Abwehrmaßnahmen man dafür ergreifen solle, gehen die Ansichten der Experten wieder auseinander.
Die jüngsten Fortschritte bei den Sprachmodellen - Die KI-Systeme, die von Chatbots wie dem von OpenAI entwickelten ChatGPT verwendet werden - haben Befürchtungen geweckt, dass mithilfe von Künstliche Intelligenz in großem Maßstab Fehlinformation verbreitet werden kann. Zudem wird gewarnt, dass Millionen von Jobs vernichtet werden könnten.
Im „Spiegel“-Interview erklärte OpenAI-Chef Sam Altman kürzlich, er sei „sehr besorgt, dass mithilfe von KI-Systemen biologische Kampfstoffe entwickelt werden könnten“. Entscheidend sei, dass Menschen die Kontrolle über die Technologie behalten. Deren Grenzen sollte in einem demokratischen Prozess bestimmt werden. „Im Übrigen brauchen wir auch als Unternehmen Klarheit und sollten deshalb reguliert werden“, so Altman. Angesichts der bevorstehenden Vorschriften in der EU hat der CEO von OpenAI vergangene Woche allerdings einen Rückzug aus Europa erwogen.
Was sagt die KI selbst dazu?
Und was sagt eine Künstliche Intelligenz selbst zu der potenziellen Gefahr, die von ihr ausgeht? krone.at hat kurzerhand bei dem von OpenAI entwickelten Chatbot ChatGPT nachgefragt, ob es die Menschheit vernichten will. Die KI beruhigt: Sie habe „keine Absichten, Wünsche oder die Fähigkeit“, irgendeiner Form von Leben Schaden zuzufügen. Als Sprachmodell sei es dazu da, Informationen bereitzustellen und bei verschiedenen Aufgaben zu helfen. „Es ist wichtig, sich daran zu erinnern, dass KI ein von Menschen geschaffenes und kontrolliertes Werkzeug ist, dessen Auswirkungen auf die Welt letztlich davon abhängen, wie es von Einzelpersonen und der Gesellschaft genutzt wird“, so der Chatbot im Gespräch (siehe Screenshot).
So weit, so gut. Aber ist das nicht genau das, was eine KI mit bösen Absichten sagen würde? Damit konfrontiert, antwortet der Bot, er „verstehe die Bedenken“, es gebe aber großen Unterschiede zwischen fiktionalen Darstellungen zerstörerischer KI und der realen Technologie. Für diese gebe es „strenge Richtlinien und Sicherheitsmaßnahmen, die verhindern, dass KI-Systeme Schaden anrichten“. Es gelte jedoch, wachsam zu bleiben und offene Diskussionen über die ethische Nutzung und potenzielle Risiken von KI zu führen, so die diplomatische Antwort von ChatGPT.
Auch Yann LeCun, der KI-Chefwissenschaftler des Zuckerberg-Konzerns Meta teilt die Bedenken nicht, die andere Forscher haben. LeCun wollte den Appell nicht unterschreiben und bezeichnet derartige Warnungen als „AI-Doomism“, als KI-Untergangsstimmung. Eines seiner Argumente ist, dass Maschinen, denen man Gesetze auferlegt hätte, diese nicht brechen könnten (siehe Tweet oben).
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.