Dienstag, 19. März 2024

Archiv

Autonome Waffensysteme
Wenn Waffen selbst über Leben und Tod entscheiden

Drohnen und Kampfroboter werden in naher Zukunft selbstständig töten können. Ihnen fehlt nur noch die entsprechende Software. Forscher warnen jedoch, dass es keiner Software überlassen sein sollte, über Leben und Tod zu entscheiden. Doch bergen autonome Waffensysteme noch weitere Gefahren.

Von Joachim Budde | 15.02.2019
    Zwei US-Soldaten überprüfen in der Nacht eine Kampfdrohne auf dem Flugfeld.
    Noch werden sie über Funk von Menschen gesteuert, bald aber könnten sie selbstständig angreifen: Kampfdrohnen wie die MQ-9 Reaper (picture alliance / U.S. Air Force / Staff Sgt. N.B./)
    Die Eröffnung der Olympischen Winterspiele waren ein Spektakel: Hunderte Drohnen malten die olympischen Ringe in den Nachthimmel, erinnert sich Toby Walsh.
    "Das war ein eindrucksvoller Nachweis dafür, was möglich ist. Diese Drohnen waren nicht von Menschen gesteuert. Ein Mensch kann eine einzelne Drohne kontrollieren. Aber wenn jemand Sie fragt, wie viele Menschen 1.000 Drohnen steuern, ist die Antwort einfach: Keiner. Nicht einmal 1.000 Menschen könnten 1.000 Drohnen so steuern. Das muss ein Algorithmus übernehmen."
    Wie kann man autonome Drohnen stoppen?
    Der Professor für Künstliche Intelligenz an der University of New South Wales im australischen Sydney steht solchen automatischen Systemen eigentlich sehr aufgeschlossen gegenüber. Doch um sich auszumalen, was solche Drohnen anrichten könnten, verweist der Forscher auf den Zwischenfall am Londoner Flughafen Gatwick, als ein paar Drohnen den Airport lahmlegten. Die habe man noch relativ einfach aus dem Verkehr ziehen können.
    "Diese Drohnen waren immer noch ferngesteuert, das ist ihre Schwäche. Sie wurden gestoppt, indem man den Funk gestört hat. Wenn sie autonom wären, funktionierten sie ohne Funk und wären viel schwieriger zu bekämpfen. Man müsste jede einzelne abschießen. Das ist eine viel größere Herausforderung – besonders bei einem ganzen Schwarm. Es würde sogar die modernsten militärischen Waffen überfordern, einhundert solcher autonomen Drohnen abzuschießen."
    Die Software entsteht - Stück für Stück
    Das Beispiel zeigt: Es fehlt lediglich die Software, um aus ganz gängiger Technik autonome Waffensysteme zu machen. Und manche Software-Komponenten existieren sogar bereits. Zum Beispiel ist Software von Amazon in der Lage, Gesichter zu erkennen. Autohersteller arbeiten an Assistenzsystemen, die Fußgänger erkennen soll – solche Software lasse sich anpassen, um auch Waffensysteme Menschen erkennen zu lassen.
    "Es existieren viele Technologien, die zusammengekleistert werden können. Wir müssen wirklich beschließen, dass das eine moralische Grenze überschreiten würde, wenn wir ein paar Zeilen Software-Code das Recht einräumten, zu entscheiden, wer leben darf und wer sterben muss. Das ist moralisch inakzeptabel."
    Die dritte Revolution in der Kriegsführung
    Die Forscher und Aktivisten betrachten die Entwicklung solcher Waffensysteme als die dritte Revolution der Kriegsführung nach der Erfindung des Schwarzpulvers und der Nuklearwaffen. Sie fürchten zudem, dass allein die Präsenz dieser Waffen die Wahrscheinlichkeit kriegerischer Auseinandersetzungen vergrößern könnte. Peter Asaro von der New School of Media Studies in New York City und Mitgründer des Internationalen Komitees zur Kontrolle von Roboter-Waffen glaubt, dass bei Kriegsparteien die Hemmschwelle sinkt, wenn Kampfroboter ins Spiel kommen. Denn sie müssten weniger eigene Verluste befürchten.
    Der Roboter Theodor, mit dessen Hilfe man über eine Kamera und eine Fernbedienung aus sicherer Entfernung einen verdächtigen Gegenstand untersuchen kann und beseitigen kann, ist am 02.10.2013 während der Bundeswehrübung Landoperationen in Bergen (Niedersachsen) im Einsatz.
    Die gute Seite der Technik: Bundeswehr-Roboter "Theodor" kann selbstständig gefährliche Gegenstände beseitigen (picture alliance / Peter Steffen)
    "Hinzu käme der psychologische Effekt, dass eine Partei der anderen zuvorkommen will, sei es, bevor der Gegner Gegenmaßnahmen gegen die Kampfroboter entwickeln kann, sei es, weil eine Partei dem Einsatz von Kampfrobotern zuvorkommen will. "
    Negative Seite der Technologie verhindern
    Die Geräte könnten Konflikte verschärfen, sagt Asaro. Zum Beispiel, wenn sie selbstständig eine Grenze bewachten.
    "Wenn solche Systeme einander begegnen, könnten Sie Konflikte auslösen, ohne dass eine militärische oder politische Entscheidung dahintersteckt. Wir sehen da Parallelen zu dem Blitzcrash an der Börse, als konkurrierende Computersysteme gegeneinander gearbeitet, sich gegenseitig verstärkt haben und binnen weniger Stunden die Aktienkurse um 40 Prozent gefallen sind. Damals 2010 musste das gesamte System zurückgesetzt werden."
    Dabei gehe es nicht darum, die Technologie grundsätzlich zu verteufeln, sagt Toby Walsh, der Professor für künstliche Intelligenz. Man müsse sich nur für die gute Seite entscheiden, und die negative verhindern.