Mittwoch, 24. April 2024

Archiv

Vereinte Nationen
Diskussion um autonome Kampfroboter

In vielen Science-Fiction-Filmen spielen sie eine Rolle: Kampfroboter. Jetzt scheinen sie real zu werden - so real, dass Experten und Diplomaten zusammenkommen, um sich über die bewaffneten Roboter auszutauschen.

Von Thomas Reintjes | 14.05.2014
    Der Kampfroboter "Talon Sword" der US-amerikanischen Armee wird auf einer Pressekonferenz vorgestellt.
    Der Kampfroboter "Talon Sword" der US-amerikanischen Armee. (picture alliance / dpa / Dan Herrick)
    Korrekt heißen sie "tödliche autonome Waffensysteme", ihre Gegner nennen sie Killerroboter: Waffen, die keinen Schützen mehr brauchen, die selbst entscheiden, wann und auf wen sie feuern. Die Technik ist im Grunde vorhanden: Es gibt ferngesteuerte, mit Waffen bestückte Roboter und es gibt Sensorsysteme, die beispielsweise an Grenzen nach Menschen Ausschau halten. Daraus einen bewaffneten Roboter zusammenzubauen, sei im Prinzip kein Problem, sagt Noel Sharkey. Doch der britische Informatiker und Robotik-Professor will verhindern, dass es soweit kommt.
    "Manche Leute scheren sich nicht darum, wie robust die Systeme sind oder ob sie dem Kriegsvölkerrecht entsprechen. Ich könnte Ihnen innerhalb von ein paar Wochen einen Killerroboter bauen. Aber der würde dann keine Unterschiede machen. Er könnte nur Menschen erkennen und sie in die Luft jagen, wenn er ihre Temperatur-Signatur erkennt. Das ist sehr bedenklich. Aber bei Chemiewaffen haben wir gesehen: Sobald eine Technologie offiziell geächtet ist, und das Verbot durchgesetzt wird, wird sich die ganze internationale Gemeinschaft davon abwenden."
    Noel Sharkey ist Vorsitzender des Internationalen Komitees für die Kontrolle von Roboter-Waffen. Obwohl (oder weil) er an künstlicher Intelligenz forscht, glaubt er nicht, dass Roboter in absehbarer Zukunft eine Situation genauso gut einschätzen können wie Soldaten. Im Kampfeinsatz müssen sie Zivilisten von Kombattanten unterschieden, müssen erkennen, wenn sich jemand ergibt und blitzschnell entscheiden, wann welche Reaktion angemessen ist. Viele weitere Regeln des Völkerrechts sind zu beachten. Doch wenn Forschung und Entwicklung weiter gehen, könnten die Roboter dann nicht eines Tages sogar besser als ein Mensch darin sein, eine Situation einzuschätzen? Zudem, so die Argumentation der Befürworter von Killer-Robotern, würden die Entscheidungen der Maschinen nicht von Gefühlen wie Angst oder Rachegelüsten beeinflusst.
    "Das ist Spinnerei. Solche Argumente helfen, um Forschungsgelder vom Militär zu bekommen und es ist ein schönes Science-Fiction-Gedankenspiel: Oh ja, sie werden präziser sein als Menschen - Ja, genau, sie wollen keine Rache. Das ist völliger Quatsch."
    "Gefahr, den Krieg zu dehumanisieren"
    Auf der anderen Seite könnten Roboter, die in gefährlichem Terrain vorausgeschickt werden, menschliches Leben schützen.
    "Im Grundsatz ist der Schutz der Soldaten natürlich etwas ganz Wesentliches."
    Wolfgang Richter, Oberst a.D. und Sicherheitsforscher bei der Stiftung Politik und Gesellschaft.
    "Die rote Linie, die dabei nicht überschritten werden darf, ist immer dann gegeben, wenn man in einem dicht besiedelten Gebiet es mit verschiedenen Menschengruppen zu tun hat, die autonom angegriffen werden sollen. Ich glaube, das kann es gar nicht geben. Das ist mit einem sehr hohen Risiko verbunden des Zielirrtums und da besteht schon die Gefahr, den Krieg zu dehumanisieren."
    Systeme hingegen, die Soldaten schützen, indem sie automatisch Raketenangriffe abwehren und ausschließlich auf militärisches Gerät zielen, hält Richter für weniger problematisch - und alles andere ohnehin für überflüssig:
    "Es gibt vor allen Dingen aus meiner Sicht gar keine militärische Notwendigkeit. Denn ein moderner Krieg richtet sich im Wesentlichen auf die Systeme, die in militärischen Operationen zum Einsatz kommen. Aber es geht ja nicht darum, den Einzelnen hinter einem Waffensystem zu erkennen und in individuell, aufgrund der Person, die er ist, anzugreifen."
    Bei dem UN-Expertentreffen in Genf geht es um grundsätzliche Fragen: Welche Art von Waffensystemen gelten als problematisch? Welchen Einfluss muss der Mensch auf ihren Einsatz haben? Und darf eine Maschine überhaupt über Leben oder Tod entscheiden? In dieser Woche diskutieren zunächst Experten darüber, Diplomaten aus mehr als 100 Ländern hören zu. Im November werden sie dann entscheiden, ob Verhandlungen über ein Verbot autonomer Waffensysteme aufgenommen werden.