Die Menschenrechtsorganisation Amnesty International und das Netzwerk „Stop Killer Robots“ haben eine Petition gegen autonome Waffensysteme gestartet. Auf stopkillerrobots.org sammeln sie Unterschriften für das Verbot aller Waffen, die nicht mehr entscheidend von Menschenhand gesteuert werden.
Vom 2. Dezember an beraten in Genf Regierungen wieder darüber, ob Verhandlungen über einen solchen Vertrag aufgenommen werden. Die Gespräche laufen seit Jahren im Rahmen des Übereinkommens über bestimmte konventionelle Waffen (CCW) - bisher ohne Erfolg. Der Widerstand ist groß, sowohl aus China, Russland und Israel, aber auch aus den USA. Die US-Regierung argumentiert, dass noch gar nicht klar sei, wie sich die Technologien entwickelten und es deshalb für einen Vertrag zu früh sei.
Autonome Waffen, auch Killerroboter genannt, sind Systeme - etwa Drohnen oder Raketen -, die anhand von eingefütterten Daten lernen, wie ein Ziel aussieht, wie es sich bewegt und wann es angegriffen werden soll. Sie können auch zünden, ohne dass ein Mensch an der Entscheidung beteiligt ist. Kritiker sagen, solche Systeme könnten zum Beispiel nicht zwischen feindlichen Kämpfern und Zivilisten unterscheiden. Sie sind nicht zu verwechseln mit automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau programmiert werden.
„Verheerende Verstöße gegen die Menschenrechte“
„Maschinen unkontrolliert über Leben und Tod entscheiden zu lassen, ist ein Angriff auf die Menschenwürde und wird zu verheerenden Verstößen gegen die Menschenrechte und das humanitäre Völkerrecht führen“, sagte Mathias John, Rüstungsexperte bei der deutschen Amnesty-Sektion. Er rief die künftige deutsche Bundesregierung auf, sich für einen solchen Vertrag einzusetzen.
Bereits am Montag hatten führende Wissenschaftler aus der KI-Forschung und Informatik die Parteien SPD, Grüne und FDP in einem offenen Brief aufgefordert, in einem möglichen Koalitionsvertrag auf Bundesebene vom Ausbau autonomer Waffensysteme Abstand zu nehmen. Die bisherigen Erfahrungen mit derartigen Kampfsystemen belegten, dass die Gefahr ziviler Opfer massiv zunehme, schrieben sie und warnten vor einer „Entmenschlichung der Entscheidung über Leben und Tod“.
Kein Entkommen
Wie schwer es sein kann, der automatischen Zielerkennung durch Killerroboter zu entkommen, wollen Amnesty und „Stop Killer Robots“ mit einem interaktiven Social-Media-Filter namens „Escape the Scan“ demonstrieren. Er steht über die integrierte Kamerafunktion in den Apps von Facebook und Instagram zur Verfügung.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.