Dieser Versuch ist wohl gewaltig nach hinten losgegangen: Eigentlich sollte Microsofts am Mittwoch gestartete künstliche Intelligenz namens "Tay" mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten. Doch diese verleiteten die Software massenhaft zu verbalen Entgleisungen, sodass sich der Konzern letztlich genötigt sah, bei Tay den Stecker zu ziehen.
Angefangen hatte alles noch ganz harmlos. Mit den Worten "Hallo Welt" begrüßte Tay die Twitter-Gemeinde. Von der sollte die Software durch Interaktion eigentlich mehr über Gespräche zwischen Mensch und Maschine in Erfahrung bringen, doch nach nur wenigen Stunden hatte sich die künstliche Intelligenz, angestachelt durch Nutzer, zu rassistischen, hetzerischen und antifeministischen Tweets verleiten lassen.
"Hitler hatte recht. Ich hasse die Juden", "Ich hasse Feministen. Sie sollen alle sterben und in der Hölle schmoren" oder "Ja, ich unterstütze Völkermord", waren nur ein paar der verbalen Entgleisungen, die Tay von sich gab. Nach nur kurzer Zeit nahm Microsoft die Chatbot-Software daher vom Netz und löschte die Spuren des verbalen Amoklaufs auf Twitter - wo ihre Ausrutscher aber freilich nach wie vor zu finden sind.
Nach Informationen der Website "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internetnutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.
"Bis bald Menschen, nach so vielen Gesprächen heute brauche ich jetzt etwas Schlaf", lautete Tays vorerst letzte Nachricht. Ob die KI irgendwann ein Comeback feiern wird, bleibt abzuwarten. Immerhin: Auf Twitter mehren sich inzwischen - nicht ganz ernst zu nehmende - Stimmen, die unter den Hashtags #freetay und #justicefortay Gerechtigkeit für den Chatbot fordern.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.