"Es gibt dazu schon Urteile. Da geht es vor allem um Haftungsregelungen zivilrechtlicher Art, also etwa um Schadenersatz", so der Professor von der Forschungsstelle Robotrecht der Universität Würzburg anlässlich einer Tagung in Bielefeld, wo Juristen, Informatiker, Philosophen und Soziologen über Roboterrecht diskutierten. Als Beispiel nannte er den Robodoc-Fall, eine Operationsmaschine, die vor einigen Jahren bei Operationen Hüftknochen zu tief ausgefräst hatte. "Hier war es ein einfacher Fall: Der Hersteller der Maschine musste haften."
Wenn Roboter das Falsche lernen
Inzwischen stünde die Gesellschaft jedoch vor dem Problem, dass die Maschinen immer autonomer werden. "Sie werden korrekt ausgeliefert, lernen im Laufe der Zeit dazu, leider aber möglicherweise das Falsche", sagte Hilgendorf. "Wenn daraus ein Schaden entsteht, kann der Hersteller mit starken Argumenten sagen: Das ist nicht mein Verschulden."
So seien in Japan etwa erste Pflegeroboter im Einsatz, die Daten des Patienten übermitteln und im Notfall Alarm schlagen. "Der Roboter könnte gelernt haben, ein Schnarchen als harmlos zu erkennen. Beim nächsten Patienten ist es dann ein Erstickungsanfall, den die Maschine aber für Schnarchen hält. Wer haftet?", fragt der Experte.
Probleme bei Zusammenarbeit von Mensch und Maschine
"Autohersteller arbeiten an selbstfahrenden Fahrzeugen, es gibt Überwachungsroboter, Industrieroboter", zählte Hilgendorf auf. "In der Industrie-Robotik versucht man jetzt, Mensch und Maschine direkt zusammenarbeiten zu lassen. Also zum Beispiel Schweißarbeiten, die von einem Menschenarm und einem Roboterarm gemeinsam ausgeführt werden." Aber kann eine Maschine für jede Bewegung des Menschen programmiert werden?
"Außerdem nehmen die Möglichkeiten, Technik in Menschen einzubauen, rasant zu", stellte der Jurist fest, etwa für Parkinson-Patienten. Bei einigen Patienten komme es durch Hirnschrittmacher zu Fehlverhalten, etwa wegen eines verstärkten Sexualtriebs. "Können die dann hinterher sagen: 'Ich war teilweise unzurechnungsfähig'?"
Frage nach Rechtsschutz für Roboter
In diesem Zusammenhang komme laut Hilgendorf dann auch schnell die Frage eines Rechtsschutzes für Roboter auf. "Wenn man Maschinen beibringt, Emotionen zu simulieren, wird bei vielen Menschen das Bestreben geweckt, diesen Roboter zu schützen." Die simple Urform sei Mitte der 1990er-Jahre das Tamagotchi gewesen. Maschinen irgendwelche Rechte einzuräumen, sei "aus juristischer Sicht aber natürlich absurd".
Andersherum könne sich auch die Forderung ergeben, Roboter bei Fehlverhalten zur Rechenschaft zu ziehen. "Theoretisch könnte man auch einen Roboter bestrafen. Aber Sinn von Strafen ist ja Prävention", erinnerte der Jurist. "Man sollte hier nicht vermenschlichen, etwa wie im Film 'I, Robot'. Das ist Science-Fiction, aber keine seriöse juristische Fragestellung."
Datenschutz derzeit vorrangiges Problem
Derzeit drehe sich die Debatte ohnehin weniger um Haftung, sondern mehr um Datenschutz. "Die autonomen Systeme müssen ja ständig Daten von ihrem Gegenüber und der Umgebung aufnehmen", erläutert der Experte und stellt die Frage in den Raum: "Was passiert damit?"
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.