Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman, hat sich gegen sofortige „starke Regulierung“ von Künstlicher Intelligenz ausgesprochen. „Ich glaube, es wäre ein Fehler, den Bereich jetzt sofort stark zu regulieren oder zu versuchen, die unglaubliche Innovation auszubremsen“, sagte der 38-Jährige am Montag an der Universität Tel Aviv. Eine starke staatliche Regulierung könne die momentan rasante Entwicklung von KI-Technologie behindern.
Erst Mitte Mai hatte sich Altman im US-Senat für mehr staatliche Regulierung ausgesprochen. Bei seiner Rede in Israel betonte er am Montag jedoch, er habe bei der Anhörung in den USA nicht die Regulierung der „heutigen Systeme“, sondern eine langfristige institutionelle Aufsicht gemeint.
Altman sagte ferner, es gebe das Risiko einer „Superintelligenz, die nicht wirklich gut ausgerichtet ist“. Dies sei „etwas, mit dem wir uns möglicherweise im nächsten Jahrzehnt auseinandersetzen müssen“. Für die entsprechenden Institutionen weltweit sei das kein langer Zeitraum, um sich darauf einzustellen. Bei einem Treffen mit dem israelischen Präsidenten Isaac Herzog betonte Altman, es müsse ein Weg gefunden werden, wie „wir diese sehr enormen Risiken eindämmen können“.
Altman für KI-Behörde nach IAEO-Vorbild
Der OpenAI-Gründer wiederholte seinen Vorschlag, eine „globale Organisation“ zur Kontrolle der Sicherheit von KI zu gründen. Ein ähnliches Modell existiere mit der Internationalen Atomenergiebehörde bereits, welche die nukleare Sicherheit auf der Welt überwache.
Altman gehört zu einer Reihe von Experten, die Ende Mai vor dem „Risiko einer Auslöschung“ durch KI warnten. In der kurzen Erklärung hieß es, die Bewältigung der von KI ausgehenden Risiken solle „neben anderen gesellschaftlichen Risiken wie Pandemien und einem Atomkrieg eine globale Priorität“ sein.
Zwischen Begeisterung und großen Befürchtungen
OpenAI hatte seinen Chatbot ChatGPT, der auf Nutzeranfragen in Sekundenschnelle komplexe Inhalte generieren kann, im November für die Öffentlichkeit zugänglich gemacht. Das beschleunigte den Wettlauf in der IT-Branche um generative KI-Systeme.
Die Reaktionen in der Öffentlichkeit schwanken zwischen Begeisterung und großen Befürchtungen. So warnen Experten, Künstliche Intelligenz könnte zur Verbreitung von Falschinformationen missbraucht werden und in großem Umfang Arbeitsplätze vernichten.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.