Stand: 06.09.2018 18:10 Uhr

Verbot autonomer Waffen ohne Chance?

Bild vergrößern
Ein "Kampfroboter" der russischen Firma Kalschnikow.

Die Technologie schreitet rasant voran. Durch den Einsatz von Sensoren und Software ist es möglich, eine Vielzahl von Informationen nach bestimmten  Kriterien zu filtern und auszuwerten. Das hat auch Folgen für die Waffentechnologie. Kritiker warnen inzwischen vor der Entwicklung von Killerrobotern. Also Systemen wie beispielsweise bewaffnete Drohnen, die ihre Ziele selbst suchen und anschließend selbstständig bekämpfen, ohne die letzte Entscheidung von Menschen.

Seit 2014 wird im UN-Rahmen darüber beraten, ob solche tödlichen autonomen Waffensysteme verboten werden sollen. Die Fronten sind allerdings verhärtet. Es gibt bisher keine Fortschritte. Auch die jüngste Konferenz im Rahmen des Übereinkommens über konventionelle Waffen (CCW) in Genf ist Ende August ohne konkrete Ergebnisse zu Ende gegangen. In dem Schlussdokument wird empfohlen, die Beratungen im kommenden Jahr fortzusetzen.

Blockade Russlands und der USA

An der Konferenz haben mehr als 70 Staaten teilgenommen. Es gilt das Konsensprinzip. Fortschritte sind bisher allerdings durch die Blockadehaltung einer kleinen Staatengruppe verhindert worden. Hierzu gehören vor allem die USA und Russland. Es sperren sich aber auch Staaten wie Israel, Südkorea und Australien. Diese Gruppe möchte erst einmal die technologische Entwicklung abwarten. Es sei noch zu früh, regulierend einzugreifen. Ein weiteres Argument ist: Mit autonomen Waffen könnten Zivilisten in bewaffneten Konflikten besser geschützt werden, weil diese neuen Waffen Informationen besser als Menschen verarbeiten könnten und präziser seien.

Entscheidungen nur durch Algorithmen?

Bild vergrößern
Initiativen versuchen, die Öffentlichkeit auf die Risiken durch Killerroboter aufmerksam zu machen.

Die Befürworter eines Verbots, wie zum Beispiel Österreich, weisen unter anderem auf völkerrechtliche Probleme hin. Es bestehe zudem die Gefahr eines neuen Rüstungswettlaufs. Die neuen Waffen könnten in falsche Hände geraten. Sie könnten zudem in einer Krise den Konflikt automatisch eskalieren, weil der Mensch die Entscheidung über das weitere Vorgehen an Algorithmen abgegeben habe.

Unterstützt werden diese mehr als 20 Länder durch ein Bündnis von Nichtregierungsorganisationen, die sich in der "Campaign to Stop Killer Robots" zusammengeschlossen haben. Verwiesen wird unter anderem auf ethische Probleme, die mit dem Einsatz von vollautonomen Waffensystemen verbunden sind. Die Entscheidung über Leben und Tod müsse immer beim Menschen liegen und dürfe nicht Maschinen überlassen werden.

Chinas widersprüchliche Rolle

In China beschäftigen sich die Streitkräfte ebenfalls intensiv mit autonomen Waffen.  Die Regierung fördert zudem die Forschungen zur künstlichen Intelligenz. Bei den Beratungen in Genf gehörte Peking allerdings nicht zu den erklärten Gegnern eines Verbots von autonomen Waffen. Von einem Kurswechsel der Chinesen will Frank Sauer von der Bundeswehr-Universität München allerdings nicht sprechen. Die Rolle Chinas sei schwer einzuschätzen.

Sauer beschäftigt sich bereits seit Jahren mit autonomen Waffensystemen und hat die UN-Beratungen über ein Verbot von Anfang an begleitet. Der Wissenschaftler setzt sich für eine globale Ächtung der Systeme ein. Peking sei gegen die Nutzung, vollautonomer Systeme, aber nicht gegen ihre Entwicklung. Sauer spricht von einem Verwirrspiel der Chinesen, denn das Land würde weiterhin ungebremst in Robotik und künstliche Intelligenz investieren.  

Ein Porträtbild von dem Sicherheitsexperten Frank Sauer. © Bundeswehr-Universität München Foto: Bundeswehr-Universität München

Sauer: Mensch als Kontrollinstanz unverzichtbar

NDR Info - Streitkräfte und Strategien -

Frank Sauer von der Bundeswehr-Universität München ist enttäuscht über den Ausgang der Genfer UN-Konferenz über ein Verbot autonomer Waffen. Das NDR Info Interview.

4,43 bei 7 Bewertungen

Mit von 5 Sternen

bewerten

Vielen Dank.

schließen

Sie haben bereits abgestimmt.

schließen

Download

Kompromiss-Vorschlag

Die SPD und die Unionsparteien haben im Koalitionsvertrag vereinbart, auf autonome Waffensysteme zu verzichten. In dem Papier heißt es:

"Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."

Eine ähnliche Formulierung gab es bereits im Koalitionsvertrag von 2013.

Angesichts der verhärteten Fronten bei den Beratungen in Genf strebt die Bundesregierung zusammen mit Frankreich allerdings zunächst einen Verhaltenskodex an. Den Weg dafür soll eine im vergangenen Jahr eingebrachte deutsch-französische Initiative bereiten. Vorgeschlagen wird unter anderem eine politische Erklärung zu autonomen Waffen. Darin sollen sich die Staaten dazu bekennen, dass der Mensch die "ultimative Entscheidung" beim Einsatz dieser Waffen hat.

Nichtregierungsorganisationen kritisieren, dass diese Erklärung und der angestrebte Verhaltenskodex völkerrechtlich unverbindlich wären. In einer Erklärung hat sich auch das Internationale Komitee vom Roten Kreuz dafür ausgesprochen, dass der Mensch weiterhin die letzte Entscheidung beim Einsatz autonomer Systeme haben müsse.

 Alternative Verbotsszenarien

Die Genfer Beratungen kommen nicht voran und halten nicht Schritt mit der technologischen Entwicklung bei autonomen Waffensystemen. Kritiker weisen deshalb darauf hin, die Befürworter eines Verbots könnten dieses außerhalb des UN-Rahmens anstreben. So sei vor einigen Jahren auch die Ächtung von Streubomben und das Verbot von Anti-Personen-Minen durchgesetzt worden. Die Großmächte hatten damals ebenfalls kein Interessen an einer Vereinbarung. Eine weitere Option ist, die Beratungen von Genf nach New York zu geben und dort auf die Tagesordnung der UN-Generalversammlung zu setzen: Dort gilt das Konsensprinzip nicht, es reicht die Stimmen-Mehrheit der Staaten.

Defensivsysteme ausgenommen

Bild vergrößern
Auch bewaffnete Drohnen können grundsätzlich Ziele allein entdecken und ohne Entscheidung des Menschen bekämpfen.

Bereits heute gibt es autonome Systeme, die ohne Eingriff des Menschen Ziele identifizieren und vernichten können. Viele Kriegsschiffe verfügen über Abwehrsysteme, die angreifende Raketen selbständig identifizieren und anschließend mit eigenen Abwehrraketen bekämpfen. Die Vorwarnzeit wäre zu kurz für Entscheidungsprozesse durch die Schiffsbesatzung. Wird das System aktiviert, hat der Mensch praktisch kaum noch eine Möglichkeit, einzugreifen. Defensiv ausgerichtete autonome Waffen sollen allerdings nicht unter das in Genf angestrebte Verbot fallen.

Betroffen von einer Ächtung wären aber voraussichtlich Waffen wie die israelische Anti-Radar-Drohne Harpy. Das System kann längere Zeit in der Luft kreisen. Wird das gegnerische Luftabwehr-Radar eingeschaltet, wird sich die Drohne in Kamikaze-Manier auf das Ziel stürzen und zerstören. Dieses Waffensystem erfasst und bekämpft also ein Ziel, ohne Zutun des Menschen.

Weitere Informationen

Streitkräfte und Strategien

Die Reihe Streitkräfte und Strategien setzt sich kritisch mit Fragen der Sicherheits- und Militärpolitik auseinander. 14-tägig sonnabends um 19.20 und sonntags um 12.30 Uhr. mehr

Dieses Thema im Programm:

NDR Info | Streitkräfte und Strategien | 08.09.2018 | 19:20 Uhr