Montag, 24.09.2018
 
Seit 02:30 Uhr Zwischentöne
StartseiteKommentare und Themen der WocheDie Lage stimmt nicht optimistisch02.09.2018

Ächtung autonomer WaffenDie Lage stimmt nicht optimistisch

Vollautonome Waffen international zu ächten, sei aktuell schwierig, meint Marcus Pindur. Die Gefahr eines Wettrüstens zwischen China, Russland und den USA sei gegeben. Allerdings könnten nur die drei Staaten selbst ein Wettrüsten politisch einhegen - und danach sehe es derzeit nicht aus.

Von Marcus Pindur

Hören Sie unsere Beiträge in der Dlf Audiothek
US-Militär testet die Kampfdrohne X47B. (picture alliance / dpa / US Air Force / AFFTC AERIAL PHOTOG)
Funktionsfähige "Killerroboter" gibt es noch nicht. Aber das technologische Wettrennen um autonome Waffensysteme ist längst in vollem Gange. (picture alliance / dpa / US Air Force / AFFTC AERIAL PHOTOG)
  • E-Mail
  • Teilen
  • Tweet
  • Drucken
  • Podcast
Mehr zum Thema

Theologe zu autonomen Waffensystemen "Gefahr inhumaner Entscheidungsfolgen"

Rüstungsexperte Sauer zu Killerrobotern "Menschliche Kontrolle über Waffensysteme bewahren"

Künstliche Intelligenz Die Roboter kommen näher

Die gute Nachricht zuerst: Vollautonome Kampfroboter sind Science Fiction und werden es wahrscheinlich für mindestens eine Generation bleiben. Das Zeitalter der Maschinen steht nicht unmittelbar bevor. Der dystopische Terminator bleibt ein kultiger Science-Fiction-Film, und dieses Szenario bleibt uns hoffentlich erspart.

Denn eine künstliche Intelligenz, die in der Lage wäre, zu planen, abzuwägen, Probleme zu lösen, abstrakt zu denken, aus Erfahrung zu lernen und dann zu entscheiden und zu handeln, könnte die Menschheit vor existentielle Fragen stellen. Elon Musk, Bill Gates und viele Experten befürchten, dass künstliche Intelligenz, die falsch oder verantwortungslos gehandhabt würde, eine existentielle Bedrohung für die Menschheit darstellen könnte – siehe das Terminator-Szenario. Aber der Zeitpunkt, an dem Maschinen intelligenter sein werden als die Menschen, liegt noch in ferner Zukunft.

Entscheidet auf dem Schlachtfeld bald der Algorithmus?

Die Revolution in der Kriegsführung durch halbautonome Waffensysteme hat dagegen längst begonnen. Der entscheidende Faktor auf dem Schlachtfeld könnte schon bald der bessere Algorithmus sein. Kampfhandlungen könnten sich so beschleunigen, dass Menschen nicht länger mithalten können. Halbautonome Computersysteme werden nach Verwundbarkeiten des Gegners suchen. Der Gegner wird seinerseits lernende Systeme verwenden, die auf Angriffe reagieren und die besten Abwehrstrategien entwerfen.

Drohnen haben sich bei der Bekämpfung von Al-Kaida bewährt. Statt mit gefährlichen Kommandoaktionen bekämpft das amerikanische Militär Terroristen in fernen Ländern mit unbemannten Vehikeln, die aus tausenden Kilometern Entfernung gesteuert werden. Deutsche Truppen in Afghanistan nutzen israelische Drohnen zur Aufklärung.

Aber es geht weit über Drohnen hinaus, die letztlich lediglich eine technologisch weitentwickelte Distanzwaffe sind. Experten glauben, dass die unmittelbare militärische Zukunft in der Kooperation zwischen Mensch und Maschine liegt. Ein bemanntes Kampfflugzeug würde dann von unbemannten und billigen Drohnen begleitet, die mit allen möglichen Aufgaben von der Aufklärung bis zum Angriff auf das Ziel betraut werden könnten. Ähnlich könnten unbemannte Vehikel am Boden funktionieren, die für bestimmte Missionen programmiert werden würden.

Internationale Ächtung wird schwierig

In bestimmten Situationen, in denen Menschen nicht schnell genug handeln können, übernehmen schon jetzt halbautonome Systeme die Auslösefunktion. So arbeitet zum Beispiel das israelische Iron-Dome-System. Der Start einer Abwehrrakete wird in Bruchteilen einer Sekunde ausgelöst, sobald das Radar eine angreifende Rakete erkannt hat – ähnlich übrigens wie die von der Bundeswehr verwandten Patriot-Flugabwehrraketen.

Das sind defensive Waffensysteme, und sie werden, bei aller Automatisierung und Fernsteuerung von Menschen programmiert und eingeschaltet. Ethisch, politisch und juristisch problematisch wären allerdings vollautonome Waffen, die die Entscheidung über Leben und Tod dem menschlichen Handeln entziehen würden. Noch gibt es diese nicht, weil es noch eine Generation dauern wird, bis künstliche Intelligenz so weit ausgereift ist.

Das Problem ist, dass es beim derzeitigen Stand der internationalen Beziehungen kaum möglich sein wird, solche vollautonomen Systeme international zu ächten. Die USA lehnen autonome Waffensysteme noch ab, es ist allerdings die Frage, ob es dabei bleibt. China und Russland werden es nicht zulassen, dass einer ihrer Konkurrenten auf dem Feld autonomer Waffen und künstlicher Intelligenz einen uneinholbaren Vorsprung bekommt.

Gefahr eines Wettrüstens

Damit ist die Gefahr eines Wettrüstens gegeben, das in sich destabilisierend auf das internationale System wirken könnte. Die Frage ist, ob die drei Konkurrenten nicht unter Umständen auch ein Eigeninteresse daran haben könnten, dieses Wettrüsten politisch einzuhegen. Diese Frage wird aber nicht bei der UNO in Genf entschieden werden, sondern in Washington, Moskau und Peking. Beim derzeitigen Stand der Dinge stimmt das nicht optimistisch.

Marcus Pindur, Korrespondent in Washington (Deutschlandradio / Bettina Fürst-Fastré )Marcus Pindur (Deutschlandradio / Bettina Fürst-Fastré )Marcus Pindur hat Geschichte, Politische Wissenschaften, Nordamerikastudien und Judaistik an der Freien Universität Berlin und der Tulane University in New Orleans studiert. Er war Stipendiat der Fulbright-Stiftung, der FU Berlin sowie des German Marshall Fund und von 1997 bis 1998 Politischer Referent im US-Repräsentantenhaus. Pindur war Korrespondent des SFB, Radio Bremens und Hessischen Rundfunks bei der Nato und der EU in Brüssel, bevor er 2001 als Redakteur und Moderator zum Deutschlandradio wechselte. Von 2012 bis 2016 war er Korrespondent für Deutschlandradio in Washington, D.C..

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk