ChatGPT sorgt weiterhin für Wirbel - diesmal in Kolumbien, wo ein Richter den auf künstlicher Intelligenz basierenden Chatbot nun für seine Entscheidungsfindung in einem Rechtsstreit nutzte. Die Meinungen darüber, ob das ethisch vertretbar ist, gehen auseinander.
Wie der britische „Guardian“ unter Berufung auf öffentliche Gerichtsdokumente berichtet, hatte Richter Juan Manuel Padilla aus Cartagena in Kolumbien eingeräumt, sich bei der Entscheidungsfindung in einem Rechtsstreit neben Präzedenzfällen aus früheren Urteilen auch auf die „Meinung“ von ChatGPT gestützt zu haben.
Konkret im Raum stand die Frage, ob die Versicherung eines autistischen Kindes alle Kosten für dessen medizinische Behandlung übernehmen sollte. „Ist ein autistischer Minderjähriger von der Zahlung von Gebühren für seine Therapien befreit?“, fragte Padilla die Text-Software und erhielt als Antwort: „Ja, das ist korrekt. Nach den Vorschriften in Kolumbien sind Minderjährige, bei denen Autismus diagnostiziert wurde, von der Zahlung von Gebühren für ihre Therapien befreit.“
Der Argumentation der KI folgend, kam dann auch Padilla zu dem Schluss, dass die gesamten Behandlungs- und Transportkosten des Kindes von seiner Krankenkasse übernommen werden sollten, da seine Eltern sie nicht bezahlen konnten.
Richter verteidigt ChatGPT-Einsatz
Während das Urteil selbst nicht viel Aufsehen erregte, löste die Einbeziehung der Software nun eine landesweite Diskussion über den Einsatz von KI in der Justiz aus. Professor Juan David Gutierrez von der Universität Rosario in Bogotá äußerte sich dem Bericht nach ungläubig über Padillas Eingeständnis und forderte eine dringende Schulung in „digitaler Kompetenz“ für Richter.
Padilla verteidigte indes seinen Einsatz der Technologie mit dem Hinweis, dass sie das aufgeblähte kolumbianische Rechtssystem effizienter machen könnte. Kolumbien hatte im Vorjahr ein Gesetz verabschiedet, demzufolge Staatsanwälte nach Möglichkeit Technologien nutzen sollen, um ihre Arbeit effizienter zu gestalten.
Kein Ersatz für menschliche Expertise
Gegenüber einer lokalen Radiostation sagte der Richter, dass ChatGPT und andere Programme dieser Art nützlich sein könnten, um „die Abfassung von Texten zu erleichtern“. Sie übernähmen Aufgaben, die zuvor von einer Sekretärin erbracht wurden, und zwar „auf organisierte, einfache und strukturierte Weise“, was „die Reaktionszeiten“ im Justizsystem verbessern könne - aber „nicht mit dem Ziel, Richter zu ersetzen“.
Octavio Tejeiro, Richter am Obersten Gerichtshof Kolumbiens, sagte dem „Guardian“, dass die künstliche Intelligenz in der Justiz moralische Panik auslöse, da die Menschen befürchteten, dass Roboter die Richter ersetzen würden. Er selbst geht davon aus, dass das Werkzeug bald akzeptiert und alltäglich werde.
ChatGPT belastet sich selbst
„Das Justizsystem sollte das Beste aus der Technologie als Werkzeug machen, aber immer unter Beachtung der Ethik und unter Berücksichtigung der Tatsache, dass der Verwalter der Justiz letztendlich ein Mensch ist“, sagte Tejeiro. „Sie muss als ein Instrument gesehen werden, das dem Richter hilft, sein Urteilsvermögen zu verbessern. Wir dürfen nicht zulassen, dass das Werkzeug wichtiger wird als die Person“.
Ähnlich sieht das auch ChatGPT selbst. Von der Zeitung nach seiner Rolle in der Justiz befragt, antwortete der Chatbot: „Richter sollten ChatGPT nicht verwenden, wenn sie über Rechtsfälle entscheiden (...). Es ist kein Ersatz für das Wissen, die Expertise und das Urteil eines menschlichen Richters.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.