Mehr als ein Dutzend führender Unternehmen im Bereich Künstlicher Intelligenz haben sich bei einem Gipfel im südkoreanischen Seoul zur Entwicklung sicherer Anwendungen verpflichtet. „Diese Verpflichtungen stellen sicher, dass die weltweit führenden KI-Unternehmen Transparenz und Rechenschaft über ihre Pläne zur Entwicklung sicherer KI ablegen“, erklärte der britische Premierminister Rishi Sunak am Dienstag.
Das Treffen in Seoul, an dem neben dem ChatGPT-Entwickler OpenAI auch Google DeepMind und Anthropic teilnahmen, baut auf einem ersten globalen KI-Sicherheitsgipfel im vergangenen Jahr in Großbritannien auf. Auch jetzt ist Großbritannien Mitveranstalter.
Die Unternehmen verpflichten sich, zu veröffentlichen, welche Risiken Künstlicher Intelligenz für sie als „nicht tolerierbar“ eingestuft werden und was die Unternehmen tun werden, um diese Schwellenwerte nicht zu überschreiten, hieß es in der vom britischen Wissenschaftsministerium vorgelegten Erklärung.
Sollten diese Vorgaben nicht gehalten werden können, verpflichteten sich die Hersteller dazu, bestimmte Systeme oder Modelle „nicht einzusetzen oder zu entwickeln“. Wie diese Schwellenwerte genau definiert sind, soll beim nächsten Gipfeltreffen in Frankreich im kommenden Jahr festgelegt werden.
Am Treffen in Seoul, das noch bis Mittwoch läuft, nehmen auch die Technologieriesen Microsoft, Amazon, IBM und die Facebook-Mutter Meta teil.
Fluch und Segen
Die sogenannte Generative Künstliche Intelligenz wird dafür verwendet, beispielsweise in Programmen wie ChatGPT, um Texte, Bilder oder Videos zu erzeugen. Die Programme können dabei mit unterschiedlichen Datenarten gespeist werden, diese umwandeln, verarbeiten und daraus neue Daten generieren.
Kritiker warnen, dass KI auch dafür genutzt werden könnte, Wahlen zu manipulieren, etwa durch gefälschte Nachrichten oder sogenannte Deepfakes, also täuschend echte, aber manipulierte Bilder oder Videos. Aktivisten und viele Regierungen fordern daher internationale Standards für die Entwicklung und den Einsatz von KI.
Schwer kontrollierbar
Der Rat der EU verabschiedete am Dienstag ein KI-Gesetz, das die Nutzung der Technologien etwa in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten regelt. Vorgesehen ist etwa eine Kennzeichnungspflicht: Entwickler sollen mit Künstlicher Intelligenz erzeugte Texte, Töne und Bilder markieren müssen, um Menschen nicht in die Irre zu führen.
Das Gesetz greift allerdings erst ab Frühjahr 2026. Experten halten die Vorgaben wegen der Fülle des Materials allerdings ohnehin für schwer kontrollierbar.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.