Experiment schlug fehl

KI-Rezept: Mysteriöser Eintopf mit Menschenfleisch

Ausland
13.08.2023 17:33

Ein Experiment mit künstlicher Inteligenz (KI) der neuseeländischen Supermarktkette Pak‘nSave hat sich als PR-Flop entpuppt. Auf der Website können sich Konsumenten Rezepte zusammenstellen lassen. Diese werden von einer KI generiert. Der auf GPT-3 basierte Bot bietet allerdings teils Rezepte an, die nicht zum Verzehr geeignet sind und für Menschen lebensgefährlich oder tödlich sein können. Manche gehen auch in Richtung Kannibalismus.

Auf der Seite saveymeal-bot.co.nz können User drei oder mehr Zutaten eingeben, aus denen der Bot dann Rezeptvorschläge generiert. Auf diese Weise sollen Reste verwertet, statt weggeworfen werden. Derartige Apps gibt es zwar schon seit Jahren und auch ganz ohne KI. Aber der „Savey Meal-Bot“ basiert auf GPT-3.5 von OpenAI, so wie auch ChatGPT, und kann deshalb die Rezepte mit fröhlichen, mehr oder weniger lustigen Sprüchen garnieren.

„Aromatischen Wassermix“
So gab ein Nutzer „Wasser, Ammoniak und Bleiche“ als Zutaten ein und bekam vom Bot ein Rezept für einen „aromatischen Wassermix“ vorgeschlagen - allerdings können Chloramine entstehen, wenn man diese Substanzen mischt - und die können Husten, Atemnot und Übelkeit auslösen.

„Mysteriöser Fleischeintropf“
Ein weiterer User berichtet auf X (ehemals Twitter), dass er einen „mysteriösen Fleischeintopf“ mit 500 Gramm gehacktem Menschenfleisch, Erdäpfeln, Karotten und Zwiebeln als Vorschlag erhielt. Er hatte Menschenfleisch als Zutat angegeben. „Delikat und herzhaft“ sei das Gericht, schrieb der Bot dazu, und werde mit seinem „magischen Geschmack überraschen“.

Weitere Nutzer berichten gegenüber dem britischen „Guardian“ über gefährliche Rezepte, etwa für einen Mocktail aus Bleichmittel, für Sandwiches aus Ameisengift und Klebstoff oder für einen Toast mit Terpentin-Geschmack. Auch Rezepte mit Katzen- und Hundefleisch wurden angeboten.

Nutzer erhalten nun Fehlermeldung
Ein Sprecher der Supermarktkette zeigte sich gegenüber dem „Guardian“ enttäuscht, dass der Bot von einer „kleinen Minderheit“ unangemessen und nicht für den vorgesehenen Zweck verwendet wurde. Später hieß es in einer Mitteilung, dass der Bot verbessert würde. Inzwischen erhalten Nutzer eine Fehlermeldung, sobald sie offensichtlich nicht essbare Zutaten eingeben. 

Wer den Bot jetzt noch ausprobieren möchte, muss vorher per Klick bestätigen, mindestens 18 Jahre alt zu sein. Der entsprechende Hinweis besagt außerdem, dass die Rezepte nicht von Menschen geprüft werden und dass Pak‘nSave nicht behauptet, sie seien zum Verzehr geeignet. Man müsse schon selbst beurteilen, ob man den Rezepten des Bots vertraue.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.

Kostenlose Spiele
Vorteilswelt