Digitalisierungsstaatssekretär Florian Tursky (ÖVP) hat sich am Mittwoch für eine Kennzeichnungspflicht für Künstliche Intelligenz (KI) ausgesprochen. Wichtig sei, dass man auf den ersten Blick sehe, wenn man mit einer KI konfrontiert sei, so Tursky. „Aus meiner Sicht können die Innovation und die Nutzung von KI nur dann flächendeckend greifen, wenn volles Vertrauen und Transparenz in Bezug auf KI herrscht“, betonte er.
So wie bei der Angabe von Inhaltsstoffen bei Lebensmitteln müssten die Menschen wissen, mit welchem Algorithmus sie es zu tun haben, sagte der Staatssekretär weiter. Zu diesem Zweck soll eine nationale Behörde für die Zertifizierung von Hochrisikoanwendungen geschaffen werden. Zunächst solle dabei eine Geschäftsstelle im Finanzministerium eingerichtet werden, die sich um den Kompetenzaufbau, die Vorbereitungen der nationalen Umsetzungen sowie die rechtlichen Rahmenbedingungen kümmern solle. Später solle diese Geschäftsstelle in eine Behörde übergehen, so Tursky.
ChatGPT-Entwickler für strikte Regulierung
Am Dienstag hatte sich bereits der Chef des ChatGPT-Erfinders OpenAI aufgrund des Risikos der Verbreitung von Falschinformationen mithilfe Künstlicher Intelligenz für eine strikte Regulierung ausgesprochen. Allein schon wegen der benötigten massiven Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman am Dienstag in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen.
Altmans OpenAI löste mit dem Text-Automaten ChatGPT sowie der Software Dall-E, die Bilder auf Basis von Text-Beschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus. ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet - für den Nutzer aber kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.
Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für Künstliche Intelligenz solle eine Reihe von Sicherheitstests vorgesehen werden - etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.
Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, „viel bessere Arbeitsplätze“ zu schaffen.
Kommentare
Liebe Leserin, lieber Leser,
die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.
Mit freundlichen Grüßen
das krone.at-Team
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.