Waffensysteme, die ohne menschliches Zutun Ziele auswählen und bekämpfen, waren vor nicht allzu langer Zeit ausschließlich im Bereich der Science-Fiction beheimatet. Technologische Fortschritte, die in den letzten Jahren in den Bereichen Robotik und künstliche Intelligenz erzielt wurden, hätten diese Vorstellung nun aber „an die Schwelle zur konkreten Umsetzung gerückt“, warnen Forscher in einer Studie für den deutschen Bundestag - und drängen daher auf eine rasche Regulierung sogenannter autonomer Waffensysteme (AWS).
„Automatisierung und Autonomie werden bereits heute für eine breite Palette an Funktionen bei Waffensystemen genutzt“, heißt es in der mehr als 260 Seiten umfassenden Studie des Büros für Technikfolgen-Abschätzung beim Bundestag zu autonomen Waffensystemen, aus der das Branchenportal Heise zitiert. „Dazu gehören die Suche und Identifizierung potenzieller Ziele mithilfe von Sensordaten, die Zielverfolgung, Priorisierung und Bestimmung des Zeitpunkts für den Angriff auf diese Ziele sowie die Steuerung für den Zielanflug.“
(K)eine Frage des Gewissens
Doch die Verwendung autonomer Waffensysteme wirft den Studienautoren zufolge „zahlreiche Fragen auf, sowohl was ihre Übereinstimmung mit den Prinzipien des humanitären Völkerrechts angeht als auch die Auswirkungen, die ihre Verbreitung und ihr Einsatz entfalten könnten“ - insbesondere in Hinblick auf „auf potenzielle Rüstungsdynamiken, die internationale Sicherheit sowie regionale und strategische Stabilität“. „Je autonomer Waffensysteme agieren, je weniger sie also direkter menschlicher Steuerung unterliegen, desto weniger eindeutig lassen sich ihre Aktionen einem menschlichen Akteur zuordnen.“
Letztlich, warnen die Forscher, „könnte so eine Situation entstehen, in der sich das technisch vermittelte Töten von Menschen wie ein zufälliges Naturereignis oder ein Unfall ausnimmt“. Es gäbe dann „niemanden mehr, der dies mit seinem Gewissen vereinbaren müsste.“
Fenster schließt sich
Um dieses Szenario zu verhindern, drängen die Experten auf eine Regulierung solcher Systeme. Noch existiere ein „Fenster von Möglichkeiten, um mit einem international abgestimmten, zielgerichteten Vorgehen die möglichen Gefahren einzuhegen, die AWS mit sich bringen könnten“. Dieses schließe sich aber „sukzessive mit fortschreitender technologischer Entwicklung sowie der kontinuierlichen Integration autonomer Funktionen in Waffensysteme aller Art“, wodurch regulierende Eingriffe schließlich erschwert oder sogar verhindert würden.
Den Studienautoren nach sei es daher „dringend geboten, diese Herausforderungen unverzüglich anzugehen und Lösungen zu entwickeln“. Entsprechende politische und diplomatische Initiativen erforderten allerdings „einen langen Atem und einen breiten Diskurs unter Einbezug von Wissenschaft und Zivilgesellschaft“. Laut heise.de hatte die Enquete-Kommission für KI des Bundestags unlängst empfohlen, Killer-Roboter international zu ächten. Ein entsprechender Antrag aus der Opposition habe aber keine Mehrheit im Parlamentsplenum gefunden.
Österreich für strenge Kontrolle
Österreichs Außenminister Alexander Schallenberg (ÖVP) hatte sich Anfang des Jahres in Genf für eine Regelung von Killerrobotern und anderen tödlichen autonomen Waffensystemen ausgesprochen. „Entscheidungen über Leben und Tod müssen Entscheidungen von Menschen bleiben“, sagte er bei einem Treffen mit Nichtregierungsorganisationen, die sich für Abrüstung engagieren. „Wir sind in Gefahr, dass die Entscheidung über Leben oder Tod an einen Algorithmus delegiert wird.“
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.