Experiment schlug fehl

KI-Rezept: Mysteriöser Eintopf mit Menschenfleisch

Ausland
13.08.2023 17:33

Ein Experiment mit künstlicher Inteligenz (KI) der neuseeländischen Supermarktkette Pak‘nSave hat sich als PR-Flop entpuppt. Auf der Website können sich Konsumenten Rezepte zusammenstellen lassen. Diese werden von einer KI generiert. Der auf GPT-3 basierte Bot bietet allerdings teils Rezepte an, die nicht zum Verzehr geeignet sind und für Menschen lebensgefährlich oder tödlich sein können. Manche gehen auch in Richtung Kannibalismus.

Auf der Seite saveymeal-bot.co.nz können User drei oder mehr Zutaten eingeben, aus denen der Bot dann Rezeptvorschläge generiert. Auf diese Weise sollen Reste verwertet, statt weggeworfen werden. Derartige Apps gibt es zwar schon seit Jahren und auch ganz ohne KI. Aber der „Savey Meal-Bot“ basiert auf GPT-3.5 von OpenAI, so wie auch ChatGPT, und kann deshalb die Rezepte mit fröhlichen, mehr oder weniger lustigen Sprüchen garnieren.

„Aromatischen Wassermix“
So gab ein Nutzer „Wasser, Ammoniak und Bleiche“ als Zutaten ein und bekam vom Bot ein Rezept für einen „aromatischen Wassermix“ vorgeschlagen - allerdings können Chloramine entstehen, wenn man diese Substanzen mischt - und die können Husten, Atemnot und Übelkeit auslösen.

„Mysteriöser Fleischeintropf“
Ein weiterer User berichtet auf X (ehemals Twitter), dass er einen „mysteriösen Fleischeintopf“ mit 500 Gramm gehacktem Menschenfleisch, Erdäpfeln, Karotten und Zwiebeln als Vorschlag erhielt. Er hatte Menschenfleisch als Zutat angegeben. „Delikat und herzhaft“ sei das Gericht, schrieb der Bot dazu, und werde mit seinem „magischen Geschmack überraschen“.

Weitere Nutzer berichten gegenüber dem britischen „Guardian“ über gefährliche Rezepte, etwa für einen Mocktail aus Bleichmittel, für Sandwiches aus Ameisengift und Klebstoff oder für einen Toast mit Terpentin-Geschmack. Auch Rezepte mit Katzen- und Hundefleisch wurden angeboten.

Nutzer erhalten nun Fehlermeldung
Ein Sprecher der Supermarktkette zeigte sich gegenüber dem „Guardian“ enttäuscht, dass der Bot von einer „kleinen Minderheit“ unangemessen und nicht für den vorgesehenen Zweck verwendet wurde. Später hieß es in einer Mitteilung, dass der Bot verbessert würde. Inzwischen erhalten Nutzer eine Fehlermeldung, sobald sie offensichtlich nicht essbare Zutaten eingeben. 

Wer den Bot jetzt noch ausprobieren möchte, muss vorher per Klick bestätigen, mindestens 18 Jahre alt zu sein. Der entsprechende Hinweis besagt außerdem, dass die Rezepte nicht von Menschen geprüft werden und dass Pak‘nSave nicht behauptet, sie seien zum Verzehr geeignet. Man müsse schon selbst beurteilen, ob man den Rezepten des Bots vertraue.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

Kostenlose Spiele
Vorteilswelt