Donnerstag, 26.04.2018
 
Seit 05:05 Uhr Informationen am Morgen
StartseiteForschung aktuellKampfroboter heute und in Zukunft09.04.2018

Autonome WaffensystemeKampfroboter heute und in Zukunft

Der Einzug von Künstlicher Intelligenz im Militär weckt Besorgnis. Zwar sind vollautonome Kampfroboter noch Science Fiction, doch schon jetzt werden häufig teilautonome Waffensysteme eingesetzt - und bereits dies birgt Gefahren.

Von Thomas Reintjes

Hören Sie unsere Beiträge in der Dlf Audiothek
Die in Großbrittannien entwickelte Drohne "Taranis" bei einem Testflug 2014 (dpa / Chris Ryding )
Der Hersteller der Drohne "Taranis" arbeitet Berichten der Times zufolge unter der Prämisse, dass in Zukunft auch autonome Angriffe gefragt sein könnten (dpa / Chris Ryding )
Mehr zum Thema

Autonome Waffensysteme "Die Technik kann man nicht ethisch machen"

Tödliche Autonome Waffensysteme Kampfroboter kennen keine Empathie

Autonome Waffensysteme "Roboter kennen keine Empathie"

Autonome Waffensysteme "Die Wissenschaft hat die Technologie dafür längst in der Tasche"

Noch gibt es sie nicht, die Künstliche Intelligenz, die feindliche Kämpfer erkennt und bekämpft. Vollautonome Kampfroboter sind Science Fiction. Doch teilautonome Waffensysteme sind inzwischen in vielen Einsätzen Alltag.

Teilautonome Waffentechnik bereits Realität

An der innerkoreanischen Grenze patroullieren seit Jahren Roboter, die Menschen erkennen und angreifen können. Nur ist diese Funktion bisher angeblich nicht aktiviert worden. Großbritannien entwickelt die Drohne "Taranis". Sie soll beispielsweise feindlichen Radarstationen automatisch ausweichen können. Die "Times" hat berichtet, der Hersteller arbeite unter der Prämisse, dass in Zukunft auch autonome Angriffe gefragt sein könnten. Israel hat schon fliegende autonome Waffen, die Harpy-Rakete.

"Das ist eine Rakete, die Radaranlagen finden und zerstören kann, ganz ohne menschliche Eingriffe. Sobald sie in der Luft ist, wartet sie darauf, Radiosignale zu empfangen, und sobald sie die erhält, greift sie das Radarsystem an, von dem die Signale kommen."

Frank Slijper hat für die niederländische Non-Profit-Organisation PAX einen Bericht über den Trend zu autonomen Waffensystemen geschrieben.

"Man kann sich leicht vorstellen, dass man mit kleinen Änderungen an der Technik eine Waffe entwickeln kann, die nicht auf Radarsysteme reagiert, sondern auf Menschen mit bestimmten Eigenschaften. Wir glauben, dass wir nur wenige Schritte von der Situation entfernt sind, wo wir Waffen haben, die ohne bedeutsame menschliche Kontrolle einen Menschen angreifen können."

Noch keine Entwicklung in Richtung vollautomatischer Systeme

Doch für einen anderen Friedensforscher liegt dieses Szenario nicht auf der Hand: Vincent Boulanin vom SIPRI, dem internationalen Friedensforschungsinstitut in Stockholm. Er glaubt nicht, dass vollautonome Waffensysteme zwingend der nächste Schritt sind.

"Es ist nicht besonders naheliegend. Vor allem, weil es gar keine Notwendigkeit dafür gibt. Oder auch wegen rechtlicher Bedenken, was Autonomie angeht. Die Technik mag nicht verlässlich genug sein, aber man will auch einfach die Kontrolle behalten. Das gilt auch für das Identifizieren und Angreifen von Zielen. Es ist ziemlich klar, dass in diesem Bereich noch keine Entwicklung in Richtung vollautonomer System stattfindet. Ich sage nicht, dass das nicht kommen wird, aber ich glaube nicht, dass es eine lineare Entwicklung ist."

Zunehmende Automatisierung schon jetzt problematisch

Vincent Boulanin hält es für einen Fehler, sich in der Diskussion auf vollautonome Systeme zu konzentrieren. Denn auch, wenn Menschen immer die letzte Entscheidung über den Einsatz einer Waffe fällen, wirft die zunehmende Automatisierung schon heute Fragen auf. Etwa, wie es Entscheidungen beeinflusst, dass der Soldat unter Umständen tausende Kilometer vom Geschehen entfernt ist. Es besteht die Gefahr, dass der Mensch das Gefühl dafür verliert, was in der jeweiligen Situation angemessen ist. Trotz aller Technik - oder gerade deswegen.

"Wenn man die ganze Informationsverarbeitung automatisiert und der Mensch nur noch von der Maschine mit Informationen gefüttert wird, ohne dass er noch die Komplexität der Algorithmen versteht, dann wird es problematisch. Dann könnte man sagen, der Mensch kann keine rationale Entscheidung mehr treffen, weil er nicht weiß, wie die Maschine zu ihrem Schluss gekommen ist."

Eine weitere Gefahr sehen beide, Vincent Boulanin und Frank Slijper darin, dass autonome Waffentechnik, ist sie erst einmal entwickelt, in die Hände von Terroristen geraten könnte.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk