Stand: 27.08.2018 15:46 Uhr

Autonome Waffen: Verhaltenskodex reicht nicht

Raketen, die vollautomatisch auf Radar-Anlagen feuern, oder "Killer-Roboter", die selbst entscheiden, wen sie töten: Eine international gültige Definition für autonome tödliche Waffensysteme fehlt noch. In der Schweiz sprechen deshalb im Moment Vertreter von 75 Staaten darüber, was sie darunter verstehen. Sie wollen auch diskutieren, wie gefährlich solche nicht mehr vom Menschen gesteuerten Waffen sind - und ob sie moralisch überhaupt vertretbar sind. Die Bundesregierung will autonome Waffen ächten.

Bild vergrößern
Dass eine Maschine über Leben und Tod entscheidet, sei unethisch, meint Andreas Flocken.

Es gibt sie schon: hochkomplexe Waffensysteme, die selbstständig Ziele erkennen und anschließend vernichten, ohne Zutun des Menschen. Solange sie aber rein defensiv ausgerichtet sind, beispielsweise als Abwehrsysteme auf Kriegsschiffen, um angreifende Raketen abzuwehren, ist gegen diese Systeme auch nichts einzuwenden. Denn hier dienen die vollautomatischen Waffen dazu, die Besatzung zu schützen. Der Mensch könnte in solchen Fällen auch gar nicht so schnell entscheiden und anschließend handeln.

Interviews zum Thema
04:16
08:40

Offensive Einsätze sind strikt abzulehnen

Strikt abzulehnen sind allerdings offensive Einsätze autonomer Waffensysteme und sogenannte Killer-Roboter. Die rasante Entwicklung bei der Künstlichen Intelligenz macht inzwischen vieles möglich - auch bei der Waffentechnologie. Das ist besorgniserregend. Die Staaten dürfen dieser Entwicklung nicht tatenlos zusehen. Sie müssen eingreifen und diesen Prozess steuern.

Beispielsweise können bewaffnete Drohnen inzwischen so programmiert werden, dass sie in bestimmten Regionen tagelang nach mutmaßlichen Terroristen suchen und diese selbstständig töten - ohne die letzte Entscheidung eines Menschen.

Doch dass eine Maschine über Leben und Tod entscheidet, ist unethisch. Die Verantwortung in solchen existenziellen Fragen muss immer beim Menschen liegen. Nur er darf einen solchen Entschluss treffen. Autonome Systeme dürfen ihm bei dem Entscheidungsprozess nur helfen, nicht aber allein entscheiden.

Wer wäre verantwortlich für die zivilen Opfer?

Zugegeben: Roboter können aufgrund der Vielzahl von Informationen in bestimmten Situationen oftmals besser und genauer unterscheiden als Menschen. Sie können in Gefechten helfen zu klären, ob sich in der Nähe von Kämpfern beispielsweise auch Zivilisten befinden. Autonome Systeme sind zudem frei von Emotionen, bei ihrem Einsatz wird es wohl kaum zu Überreaktionen oder Exzessen kommen. Aber auch sie können Fehler machen, weil sie möglicherweise falsch programmiert worden sind.

So kann in einem bewaffneten Konflikt zum Beispiel eine autonome Drohne ein Flugabwehrgeschütz auf einem Gebäude entdecken und die Bedienungsmannschaft bekämpfen. Aber was ist, wenn der Roboter aufgrund einer unzureichenden Software nicht erkennt, dass sich dieses Geschütz auf dem Dach einer Schule befindet? Wer wäre in einem solchen Fall für die zivilen Opfer verantwortlich? Der Programmierer? Oder die Soldaten, die die autonome Drohne gestartet haben? Wie wird ein autonomes Waffensystem mit Kindersoldaten umgehen?

Anzustreben ist ein völkerrechtliches Verbot

Das alles sind nicht nur technische Fragen, die sich durch eine Anpassung der Software regeln lassen. Der Einsatz von Killer-Robotern wirft grundlegende ethische und rechtliche Fragen auf. Deshalb sind Beschränkungen für die neue Waffentechnologie notwendig.

Die Bundesregierung hat sich im Koalitionsvertrag dafür ausgesprochen, autonome Waffensysteme, die nicht vom Menschen kontrolliert werden, weltweit zu ächten. Zu Recht. Bei den Verhandlungen in Genf macht sich Deutschland für einen Verhaltenskodex stark. Das ist allerdings zu wenig. Anzustreben ist ein völkerrechtliches Verbot - und nicht eine unverbindliche Absichtserklärung. Solche Systeme gehören nicht in das Arsenal von Streitkräften demokratischer Staaten.

Weitere Informationen
Link

Streit um autonome Kriegsmaschinen

In Genf beginnt eine UN-Tagung zu autonomen Waffensystemen. Die Bundesregierung will solche Waffen ächten. Doch die Opposition traut den Bekundungen nicht. Mehr bei tagesschau.de. extern

Streitkräfte und Strategien

Die Reihe Streitkräfte und Strategien setzt sich kritisch mit Fragen der Sicherheits- und Militärpolitik auseinander. 14-tägig sonnabends um 19.20 und sonntags um 12.30 Uhr. mehr

Dieses Thema im Programm:

NDR Info | Kommentar | 27.08.2018 | 18:30 Uhr