Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internetkonzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach.
Am Freitag war die Funktion nicht mehr verfügbar. Zugleich verteidigte Google grundsätzlich Diversität in KI-Bildern. Aber in dem konkreten Fall sei man übers Ziel hinausgeschossen. Googles KI-Assistent Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Text-Vorgaben bekommen. Auch andere ähnliche Software auf Basis Künstlicher Intelligenz, etwa von OpenAI und Microsoft, hat diese Fähigkeit.
Stereotype und Diskriminierung
In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt.
Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weißen anprangert.
Bilder waren „peinlich und falsch“
In einem Blogeintrag am Freitag erläuterte Google, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre. Die dadurch erzeugten Bilder seien „peinlich und falsch“ gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfüllen.
Aber wenn Nutzer sich etwa Bilder von einem „weißen Tierarzt mit Hund“ anzeigen lassen wollten, müsse das Programm dies auch erfüllen. Die nun entdeckten Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.
Google-Manager Raghavan betonte zugleich, dass Software mit Künstlicher Intelligenz vorerst auch weiterhin manchmal daneben liegen werde. „Ich kann nicht versprechen, dass Gemini gelegentlich peinliche, falsche oder beleidigende Ergebnisse ausgeben wird“, schrieb er. Aber Google werde bei Problemen rasch eingreifen.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.