Freitag, 29. März 2024

Archiv

Automatisierter Krieg
Wenn Roboter töten können

Sind Roboter die Soldaten der Zukunft? In der Rüstungsindustrie ist ein Wettlauf um den technischen Vorsprung bei automatisierten Waffen entstanden. Sie können navigieren, überwachen und selbstständig zielen – und sie könnten als autonome Tötungsmaschinen die Zukunft der Kriegsführung radikal verändern.

Von Jan Bösche und Marc Engelhardt | 19.08.2019
A mock "killer robot" is pictured in central London on April 23, 2013 during the launching of the Campaign to Stop "Killer Robots," which calls for the ban of lethal robot weapons that would be able to select and attack targets without any human intervention. The Campaign to Stop Killer Robots calls for a pre-emptive and comprehensive ban on the development, production, and use of fully autonomous weapons. AFP PHOTO/CARL COURT (Photo by CARL COURT / AFP)
Demonstration gegen "Killerroboter" in Berlin - der Slogan: "Killerroboter stoppen! Jetzt!!" (AFP / Carl Court)
Weitgehend unbemerkt von der breiten Öffentlichkeit, verhandeln 125 Staaten seit einigen Jahren über eine Frage, die entscheidend sein könnte für den Krieg der Zukunft: Wie sollen tödliche autonome Waffen reguliert werden? In dieser Woche treffen die Regierungsvertreter wieder zusammen. Mary Wareham aber hat schon jetzt genug. Seit 2014 begleitet die Koordinatorin der "Kampagne gegen Killer-Roboter" die Gespräche unter dem Dach der UN-Waffenkonvention in Genf. Wareham ist sich sicher: "Wir stehen jetzt am Scheideweg: Die Staaten müssen entscheiden, ob sie die Gespräche in diesem Rahmen weiter erdulden wollen oder doch lieber versuchen, mit anderen Mitteln etwas zu erreichen."
Nicht nur bei den Beobachtern der Gespräche wächst die Ungeduld. Botschafter äußern sich zwar nicht vor dem Mikrofon, aber immer mehr von ihnen sagen hinter vorgehaltener Hand, dass bis zum Jahresende eine Entscheidung fallen muss, wie es weitergeht. Sechs Jahre lang wird mittlerweile über die Definition autonomer tödlicher Waffensysteme diskutiert, werden ethische, moralische, technische, rechtliche und operationelle Fragen erörtert. Die eigentliche Arbeit der Staatenvertreter aber, nämlich über eine völkerrechtlich bindende Konvention zum Umgang mit autonomen Tötungsmaschinen zu beraten, hat noch gar nicht begonnen.
Viele Staaten haben kein Interesse an Regulierung
Die Völkerrechtlerin Maya Brehm, die die Gespräche im Auftrag der britischen Nichtregierungsorganisation Article 36 verfolgt, sieht darin eine gezielte Strategie.
"Wir haben nach wie vor einige Staaten, die an einem tatsächlichen Ergebnis in der nahen Zukunft nicht interessiert sind. Diese Staaten werden einen Kompromiss unterstützen, der möglichst lange Debatten nach sich zieht und ein sehr unambitioniertes, unklares Ziel verfolgt, vielleicht auch gar keins. Hauptsache, es wird weiter diskutiert."
Diesen Vorwurf macht Brehm etwa Russland, China, Israel und den USA. Ihnen wirft Brehm vor, ein Interesse an einer möglichst langwierigen Debatte zu haben, während in ihren Ländern längst autonome Waffensysteme erforscht oder entwickelt und so Fakten geschaffen werden.
"Was auch immer die Mission ist: Autonome Systeme sind überall. Sie ermöglichen Menschen und Maschinen, das zu tun, was sie am besten können. Vom Ozean bis zum Weltall realisieren wir eine neue Vision für autonome Systeme. Komplett integriert, vertrauenswürdig, verlässlich. Lockheed Martin glaubt an eine Zukunft, die von autonomen Systemen angetrieben wird, die Menschen in Sicherheit bringt, die Welt sicherer macht und Leute nach Hause bringt, immer und überall."
So wirbt der Rüstungskonzern Lockheed Martin für seine Produkte mit künstlicher Intelligenz: Zu sehen sind Schiffe, selbstfliegende Hubschrauber, Unterwasser-Drohnen - und eine Soldatin, die ihren Sohn auf den Arm nimmt. Künstliche Intelligenz ist das neue In-Wort der Rüstungsbranche. Paul Scharre vom "Center for a New American Security" hat sich intensiv mit dem Thema beschäftigt:
"Wenn wir über künstliche Intelligenz sprechen, dann denken wir an eine Allzweck-Technologie wie Elektrizität, Verbrennungsmotoren oder Computer. Genauso wie wir überall Strom haben, wird künstliche Intelligenz überall eingebettet sein. Auch in die Kriegsführung. Hier hat sie viel Potential, für Dinge, die vielleicht banal und langweilig sind, aber wichtig. Dinge wie eine bessere Logistik, weniger Verbrauch. Das meiste, was Militärs tun, ist Dinge von A nach B zu bringen."
A Lockheed Martin drone is displayed during a media preview at Rotorcraft and Unmanned Systems exhibition in Singapore on April 8, 2019. (Photo by Roslan RAHMAN / AFP)
Eine Drohne der Zukunft von der Firma Lockheed Martin (AFP / Roslan Rahman)
Grad zwischen nützlichen und tödlichen Robotern ist schmal
In der militärischen Logistik helfen autonome Systeme genauso wie im zivilen Leben bei Paketdiensten oder Taxi-Fahrten. Autonome Fahrzeuge oder Lieferdrohnen - das alles interessiert auch die Militärplaner. Die US-Marine testet zum Beispiel Schiffe, die autonom schwimmen können. Für die Luftüberwachung werden Drohnen getestet, die in Gruppen ausschwärmen und selbstständig bestimmte Ziele überwachen können. Gegen manche dieser Forschungen hat auch Mary Wareham von der Kampagne gegen Killerroboter nichts einzuwenden.
"Niemand in der Kampagne redet davon, dass wir dem Militär Roboter oder autonome Systeme wegnehmen wollen. Wir hören viel von autonomen Systemen, die hilfreich sein können, bei den schmutzigen, langweiligen, gefährlichen Aufgaben im Krieg. Schiffe reinigen, Bomben entschärfen."
Wache stehen zum Beispiel - langweilig und ermüdend für den Menschen. Im entscheidenden Moment aber wichtig, wenn es zu einem Angriff kommt. Südkorea hat deshalb ein System entwickelt, dass die Grenze zu Nordkorea überwacht. Es kann in bis zu drei Kilometer Entfernung einen Menschen aufspüren und Bewegungen an der Grenze registrieren. Das System ist mit Schusswaffen ausgerüstet - allerdings meldet es erst einem diensthabenden Soldaten, was es registriert hat und wartet auf dessen Schießbefehl.
Vielen Kritikern aber bereitet schon das Sorgen. Denn es ist nur noch einen Schritt davon entfernt, das System selbst entscheiden zu lassen, ob es das Feuer eröffnet. Mary Wareham sagt: "Was uns die meisten Sorgen bereitet sind vollständig autonome Systeme, die Ziele selbst sammeln und auswählen. Im Hinblick darauf denke ich nicht, dass wir jetzt schon irgendetwas ‚Kampfroboter‘ nennen können."
Vorsprung in der Militär-Entwicklung nicht verlieren
Tatsächlich ist ein neuer Wettlauf entstanden: Alle großen Militärnationen arbeiten mehr oder weniger offen an autonomen Systemen, die immer weniger menschlichen Einfluss benötigen oder erlauben. Das Pentagon gibt zwar nur einen Bruchteil seines riesigen Etats dafür aus, es sind aber trotzdem mehrere Milliarden Dollar. Experten haben mehrere hundert entsprechende Forschungs-Projekte gezählt. Die Grundregel lautet offiziell: Über Leben und Tod entscheiden weiter Menschen, autonome Tötungsmaschinen darf es nicht geben. Mary Wareham ist aber skeptisch:
"Das US-Verteidigungsministerium hat 2012 eine Richtlinie herausgegeben, über autonome Waffensysteme. Diese Richtlinie hat das Verteidigungsministerium im vergangenen Jahr aktualisiert. Von manchen wird das als eine Politik der Selbstbeschränkung interpretiert dahingehend, dass es für die USA immer eine menschliche Entscheidung geben soll. Aber gleichzeitig hat die Richtlinie grünes Licht gegeben für die Entwicklung von zunehmend autonomen Waffensystemen und Investitionen nicht beschränkt."
Der frühere stellvertretende Verteidigungsminister Robert Work sprach von einem "Terminator-Problem": Was sollen die USA tun, wenn andere Staaten solche Waffen entwickeln? Work hatte in seiner Zeit im Pentagon die Entwicklung autonomer Systeme vorangetrieben, damit die USA ihren Vorsprung in der Militär-Entwicklung nicht verlieren. Paul Scharre schildert das Dilemma: "Wenn dein Gegner Systeme konstruiert, die einen Geschwindigkeits-Vorteil bringen – wie reagierst du? Das ist eine Entwicklung wie auf dem Aktienmarkt. Wir haben gesehen, wie Hochgeschwindigkeits-Handel entwickelt wurde. Aktien werden in Millisekunden gehandelt, so schnell können Menschen nicht reagieren. Wenn man da mitspielen will, kann man nicht sagten, wir benutzen keine Maschinen."
Der neue US-Verteidigungsminister Mark Esper
Das US-Verteidigungsministerium unter Mark Esper gibt zwar nur einen Bruchteil des Etats für autonome System aus, es sind aber dennoch mehrere Milliarden Dollar. (AP)
Schneller sein - das sollte zum Beispiel das US-Projekt MAVEN ermöglichen, das erste Projekt, bei dem im großen Stil künstliche Intelligenz zur Datenauswertung eingesetzt wurde. MAVEN hilft den Analysten, Überwachungsaufnahmen von Drohnen auszuwerten und zum Beispiel bestimmte Objekte zu erkennen. An dem Projekt war auch Google beteiligt - bis es zu Protesten der Belegschaft kam, die nicht für Militärprojekte arbeiten wollte.
Rüstungsforschung - meist hinter verschlossenen Türen
Solche öffentlichen Debatten gibt es in Russland oder China nicht, die wichtigen Gegner der USA, wenn es um Militär-Innovationen geht. Die beiden Länder lassen sich überhaupt nicht in ihre Labore schauen, zivile und militärische Forschung sind enger verzahnt. Russland zum Beispiel forscht an autonomen Panzern. Sie können ferngesteuert fahren, sollen aber auch begrenzt autonom agieren können.
"Die meisten Länder, die sich diese Technologien anschauen, mögen sagen: Es ist das Risiko nicht wert, es gibt so viele rechtliche und ethische Problem, es kann zu Unfällen kommen, wir wollen das nicht riskieren. Das Problem ist: Länder haben Armeen, weil sie anderen Ländern nicht trauen."
Trotzdem kann es gelingen, autonome tödliche Waffen zu regulieren, glaubt Neil Davison vom Internationalen Komitee vom Roten Kreuz. Auch er hat die Verhandlungen unter dem Dach der UN-Waffenkonvention vom ersten Tag an begleitet. Trotz des Misstrauens und widerstreitender Interessen glaubt er weiter an die Möglichkeit einer Verständigung.
"Wenn es überhaupt eine Art von fragilem Einverständnis zwischen den Regierungen gibt, dann ist es dieses: Dass der Mensch die Kontrolle und die Verantwortung beim Einsatz von Waffengewalt behalten muss. Aber das ist leicht gesagt, problematisch ist, was das in der Praxis bedeutet."
Genau darüber wurde in den vergangenen Jahren diskutiert. Klar ist, dass etwa Luftabwehrsysteme völkerrechtskonform sind, auch wenn sie über kurze Zeitspannen autonom agieren. Denn sie sind rein defensiv und gefährden keine Zivilisten. So werden Drohneneinsätze zwar aus der Ferne gesteuert, dennoch entscheidet in letzter Instanz immer ein Mensch, ob es zum Einsatz kommt. Damit kann immer eine Person für die Tötung von Zivilisten verantwortlich gemacht werden – und das ist die Basis humanitären Völkerrechts. Würde ein Waffensystem dagegen allein auf Grundlage seiner Programmierung sein Ziel selbst auswählen und den Schießbefehl geben, wäre das anders. Und für Neil Davison undenkbar.
"Die zentrale Rolle des Menschen muss beibehalten werden, also die Verbindung einer potentiell schwerwiegenden Entscheidung mit ihren Konsequenzen in der Realität. Wird diese Verbindung gekappt oder auch nur aufgeweicht, dann begeben wir uns auf gefährliches Glatteis."
"Es leuchtet jedem ein, dass Computer nicht über Leben und Tod entscheiden dürfen"
Für Davison ist das nicht nur eine Frage des Völkerrechts, sondern auch eine ethische Frage. Intuitiv leuchte es jedem ein, dass Computern Entscheidungen über Leben und Tod nicht überlassen werden dürften, sagt er. Doch so mancher Staatenvertreter bei der UN sieht das anders. Und auch in der Forschung gibt es durchaus andere Ansichten.
Eine menschliche Armee mit Roboter-Helfern
Ronald Arkin etwa ist Professor an der "Georgia Tech" Hochschule in Atlanta. Er befürwortet Waffen-Systeme, die autonom handeln können. Entscheidend ist für ihn die dienende Funktion, die solche Roboter einnehmen sollen:
"Ich denke, die Militärs wollen solche System mit den Truppen auf den Weg schicken. Wie Hunde, oder Maultiere oder andere Dinge in der Vergangenheit, die den Soldaten halfen, ihre Mission zu erfüllen. Es gibt viele Gründe, warum das so bleiben sollte. Wir müssen sicherstellen, dass wir den Horror des Krieges verstehen und darum brauchen wir eine menschliche Präsenz auf dem Schlachtfeld."
Arkins Vision für die Zukunft: Keine Armee aus Killerrobotern, sondern eine menschliche Armee mit Roboter-Helfern. Die Roboter sollen nur bestimmte, klar definierte Aufgaben übernehmen, dabei dann aber auch über Leben und Tod entscheiden können. Arkins sagt, diese Roboter könnten so programmiert werden, dass sie dabei internationale Regeln einhalten. Man müsse anerkennen, dass der Mensch allein auf dem Schlachtfeld höchst fehlbar sei:
"Ich glaube, dass solche Systeme menschlichen Kriegern etwas Voraus haben können, wenn es darum geht, humanitäres Völkerrecht einzuhalten. Sie würden keine Gräueltaten ausführen. Sie machen weniger Fehler als Menschen, besonders wenn diese von Emotionen wie Zorn, Angst oder Frust geleitet werden. Die Maschinen können konservativer agieren, vorsichtiger bei Zielen sein als Menschen."
Aussenminister Heiko Maas bei seiner Rede zur Eröffnung des 18. Petersburger Dialog 2019 in Koenigswinter
Bundesaußenminister Heiko Maas: "Wir haben das Thema Rüstungskontrolle und Abrüstung im UN-Sicherheitsrat auf die Tagesordnung gesetzt" (picture alliance / Flashpic / Jens Krick)
Sind Roboter die besseren Soldaten?
Können autonome Tötungsmaschinen also die besseren Soldaten sein, weil sie rationalere Entscheidungen treffen als der Mensch? Neil Davison vom Internationalen Komitee vom Roten Kreuz hat dazu eine klare Meinung: Nein.
"Es ist schlicht ein Kategorienfehler, wenn man Menschen mit Maschinen vergleicht. Menschen führen heute Kriege und in der Zukunft werden sie dafür womöglich bestimmte Maschinen einsetzen. Aber es sind immer Menschen, die dahinter stehen. Und deshalb werden wir menschliche Probleme auch dann haben, wenn im Krieg andere Maschinen eingesetzt werden."
Mehr als 4.500 Forscher fordern in einem offenen Brief ein Verbot der Entwicklung autonomer Waffen. Und auch mehr als 100 Staaten sprechen sich Nichtregierungsorganisationen zufolge gegen Entwicklung und Einsatz der autonomen Systeme aus. Die Bundesregierung hat im Koalitionsvertrag ausdrücklich festgelegt: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."
Bundesaußenminister Heiko Maas gibt sich in seinen Reden immer wieder kämpferisch. Im Deutschlandfunk sagte er erst Anfang des Monats: "In den letzten Jahren sind aufgrund des technischen Fortschritts so viele neue Waffensysteme entwickelt worden, Cyberwaffen, Killerroboter, wofür es kein internationales Reglement gibt. Und da wir seit diesem Jahr im Sicherheitsrat der Vereinten Nationen sitzen, haben wir das Thema Rüstungskontrolle und Abrüstung dort auf die Tagesordnung gesetzt."
Doch in Genf ist Deutschland weit weniger entschieden. Dabei würden sich Beobachter wie die Völkerrechtlerin Maya Brehm eine Vorreiterrolle Deutschlands dringend wünschen. "Deutschlands Haltung erlebe ich als ziemlich konfus. Wir haben Außenminister Maas, der sich sehr deutlich gegen autonome Waffensysteme ausspricht. Aber das steht im Widerspruch zu dem, was die deutsche Delegation in Genf tut. Deutschland wirbt hier für eine politische Erklärung, die zusammen mit Frankreich entwickelt wurde, und deren Inhalt nun wirklich nicht sehr ambitioniert ist."
Ein Mann in einer roboterähnlichen Verkleidung hält bei einer Demonstration gegen militärische Killerroboter einen Sticker mit der Aufschrift "Killer Roboter Stoppen! Jetzt!!". 
Immer wieder kommt es zu Demonstrationen gegen "Killerroboter" - hier in Berlin (dpa)
Verhandlungen stocken auf internationaler Ebene
Kompromisse dieser Art fürchtet die Koordinatorin der Kampagne gegen Killerroboter, Mary Wareham. Sie glaubt, dass sie letztlich den Weg zu einer Legitimierung autonomer Waffensysteme ebnen. Auch deshalb ist sie zunehmend überzeugt davon, dass ein wirksames Verbot nur außerhalb der UN erreicht werden kann.
"Wir halten uns immer noch alle Optionen offen, aber unsere Erfahrungen mit externen Prozessen sind gut. Sie scheinen der beste Weg, um möglichst starke Abkommen auf breiter Basis zu erreichen, auch wenn die dann von den großen Militärmächten womöglich nicht unterstützt werden. Abkommen wie das von Kanada in den 90er Jahren hervorgebrachte Landminenverbot oder das Verbot von Streumunition, das Norwegen ein Jahrzehnt danach initiiert hat."
Ein dritter Weg wären Verhandlungen im Rahmen der UN-Vollversammlung, wo die nötige einfache Mehrheit dafür sicher scheint. Auf diese Weise wurde 2017 in nur wenigen Monaten der Atomwaffenverbots-Vertrag ausgehandelt. Er ist aber nur für die Staaten bindend, die ihm zugestimmt haben. Atommächte sind nicht darunter. Und so wäre auch ein vergleichbar ausgehandelter Vertrag über automatisierte Waffen nur für die gültig, die ihn anerkennen. Eine Konvention hingegen, über die in Genf verhandelt werden könnte, wäre für alle Staaten bindend – doch auch deshalb stocken die Gespräche. Und Maya Brehm kritisiert, dass bestimmte heiße Themen gar nicht erst aufgebracht werden.
"Diese Technologie wird ermöglicht durch großflächige Überwachung, durch Künstliche Intelligenz und maschinelles Lernen, Sensoren-Netzwerke und so weiter. Diese übergreifenden Aspekte sind aus der UN-Debatte derzeit weitgehend oder ganz ausgeschlossen." Ein Scheitern der Genfer Gespräche würde Brehm zufolge zwei Gefahren bergen: Dass Killerroboter eines Tages im Krieg eingesetzt werden könnten. Und dass die UN die Macht verlören, die Entwicklung jeglicher neuer Waffentechnik zu regulieren.
"Die Debatte über autonome Waffensysteme ist ein Versuchsballon für den Umgang mit anderen neu entstehenden Waffensystemen, die in den kommenden Jahren mehr in den Mittelpunkt rücken werden. Und dort werden wir dann mit ganz ähnlichen Bedenken konfrontiert sein."
Anders ausgedrückt: Scheitert die Regulierung autonomer tödlicher Waffensysteme, dann droht auch bei anderen neuen Waffen eine weitgehend ungesteuerte Entwicklung. Die Konsequenzen für die Kriege der Zukunft wären dann vor allem eines: Nicht absehbar.