Das Außenministerium drängt auf ein internationales Verbot von autonomen Waffensystemen, die ohne menschliche Eingriffsmöglichkeiten agieren. „Für mich ist die Frage der Killer-Roboter keine Zukunftsmusik“, erklärte Außenminister Alexander Schallenberg (ÖVP) anlässlich einer am Mittwoch startenden virtuellen Expertenkonferenz zum Thema. Unterstützung gibt es dabei unter anderem von UNO und Rotem Kreuz.
„Die technologische Entwicklung schreitet ungemein schnell voran, Politik und Gesellschaft hinken teilweise hinterher.“ Schallenberg warnte vor einer Entwicklung, in der ein Algorithmus über Leben und Tod entscheidet. „Menschenrechte und das humanitäre Völkerrecht sind unser Kompass; sie müssen weiterhin den Mensch, nicht die Maschine im Fokus haben. Ansonsten droht die digitale Anarchie.“ Mehr Waffen seien kein Mehr an Sicherheit. Dies wäre „ein gefährlicher Trugschluss, den wir schon bei Nuklearwaffen gesehen haben“.
Österreich fordert bereits seit 2018 ein Verbot von autonomen Waffen. Diesbezügliche Expertenberatungen im Rahmen der Konvention über konventionelle Waffen verlaufen aber dem Vernehmen nach äußerst schleppend. Die Wiener Konferenz hat den Zweck, vor der nächsten Sitzung des Gremiums Ende September in Genf öffentlichen Druck aufzubauen. Entsprechend findet die Konferenz öffentlich statt und ist im Internet unter LAWSVienna2021.at (Mittwoch und Donnerstag ab jeweils 15 Uhr) mitzuverfolgen.
Wie im Vorfeld der Konferenz von Diplomaten zu vernehmen war, sind bezüglich eines Verbots vor allem die großen Militärmächte und Waffenproduzenten zurückhaltend. Sie möchten sich nämlich mit Blick auf die rasante technologische Entwicklung im Bereich autonomer Waffensysteme nicht die Hände binden lassen.
„Technologischer Tsunami“
Die Befürworter einer Regelung befürchten hingegen massive negative Auswirkungen auf die globale Sicherheit, wenn der aktuelle „anarchische“ Zustand in diesem Bereich aufrecht bleibt. Sie sprechen von einem „technologischen Tsunami“, den man regeln müsse, „bevor er uns überrollt“. Man könne Angriffsentscheidungen nicht Maschinen überlassen. Neben menschenrechtlichen Fragen stelle sich nämlich auch jene der Verantwortung, wenn etwa bei einem Angriff anstelle einer Terrorgruppe eine Hochzeitsgesellschaft getroffen werde.
Die geforderte internationale Regelung soll etwa definieren, welches Maß an menschlicher Kontrolle bei Zielauswahl und Angriffsentscheidung nötig ist. Außerdem sollen die autonomen Systeme Beschränkungen bezüglich Einsatzradius und -dauer, aber auch der Zielart unterworfen werden. So könnte etwa festgelegt werden, dass sie nur auf militärische Ziele losgeschickt werden können.
Reaktionszeiten dramatisch verkürzt
Zwar gibt es von Software-Entwicklern bereits massiven Druck gegen autonome Waffensysteme, doch stehen die großen Militärmächte weiterhin auf der Bremse. Einer der Gründe ist etwa der rasante Fortschritt im Raketenbereich, der Reaktionszeiten dramatisch verkürzt. Überschallraketen ließen nämlich nur noch wenige Minuten Zeit, um auf einen Angriff zu reagieren, was von Maschinen schneller bewerkstelligt werden kann als von Menschen. Somit ist der Trend zu autonomen Waffensystemen eng mit der Entwicklung im konventionellen Rüstungsbereich verbunden.
Österreich will unterdessen auch beim Atomwaffenverbot am Ball bleiben. Wie es aus dem Außenministerium auf APA-Anfrage hieß, findet die erste Konferenz der Vertragsstaaten des Atomwaffenverbotsvertrags vom 22. bis 24. März am Wiener UNO-Sitz statt. Vorsitzender ist der österreichische Diplomat Alexander Kmentt. Die Tagung soll dabei bewusst allen Staaten offen stehen - nicht nur den 55 Vertragsstaaten und den 31 weiteren Staaten, die den Verbotsvertrag unterzeichnet, aber noch nicht ratifiziert haben.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.