Mittwoch, 24. April 2024

Archiv

Künstliche Intelligenz und Ethik
Dürfen Roboter töten?

Einige Staaten und Unternehmen entwickeln autonome Waffensysteme. Kritiker sprechen auch von "Killer-Robotern". Diese Maschinen könnten schon bald selbst entscheiden, welche Ziele sie angreifen. Doch über Leben und Tod darf nur der Mensch entscheiden, fordern Fachleute.

Von Christian Röther | 30.09.2019
Computermodell einer Militärdrohne
Drohnen, die autonom über einen Raketenabschuss entscheiden könnten - das wirft ethische Fragen auf (imago / Science Photo Library)
Eine militärische Drohne ist auf der Suche nach feindlichen Kämpfern. Sie ist unbemannt, aber ausgerüstet mit Raketen – und hochauflösenden Kameras. In einem Kriegsgebiet macht sie Fotos der Menschen hunderte Meter unter sich. Sie sendet die Bilder an einen Computer irgendwo anders auf der Welt.
In Sekundenschnelle gleicht der Computer die Bilder mit seiner Datenbank ab. Treffer: Die Software zur Gesichtserkennung findet einen Topterroristen. Also bekommt die Drohne vom Computer den Auftrag – nein, nicht direkt anzugreifen, sondern erst auch noch die Umgebung zu fotografieren.
"Der Computer guckt sich die Bilder an und sagt: Da ist ein Kinderheim in der Nähe, da ist eine Gasleitung. Der rechnet blitzartig das Schadensausmaß ein, wenn sie mit einer bestimmten Granate da reinschießen: So und so viele Kinder sind tot, das Gas wird sich entflammen und und und", sagt Hartwig von Schubert.
"Hier darf nicht geschossen werden!"
Er ist evangelischer Theologe und Militärdekan an der Führungsakademie der Bundeswehr in Hamburg. Er befasst sich auch mit ethischen Fragen zur Kriegsführung mit Künstlicher Intelligenz, also mit vollautomatischen Waffensystemen. Oder wie andere sagen: mit "Killer-Robotern". Die können selbst entscheiden, welche Ziele sie angreifen.
Von Schubert: "Die gesamte Verhältnismäßigkeitsfrage, die Begleiterscheinungen, die Nebenwirkungen, die Kollateralschäden, die müssen wir auch irgendwie in die Entscheidung mit einbeziehen. Und der Computer würde nun sagen: Ach, das ist gerechtfertigt. Also die sieben Kinder, die dabei zu Tode kommen. Da würden wir sagen: Nee, nee, also diese schwere Entscheidung, die kann nicht einem Computer überlassen werden. Der kann mir sagen, welche Gewichte auf beiden Seiten in der Waagschale liegen.
Aber wie wir dann handeln, das ist möglicherweise sogar eine staatspolitische Entscheidung. Das geht bis rauf in die politische Führung, die sagt: Hier wird nicht geschossen! Und wenn nur ein einziges Kind auch nur eventuell ums Leben kommen könnte: Hier darf nicht geschossen werden!"
"Wir sollten keine autonomen Waffensysteme bauen"
Maschinen sollen im Krieg nicht über Leben und Tod entscheiden dürfen, sondern ausschließlich Menschen - diese Position vertritt nicht nur der Theologe Hartwig von Schubert, sondern sie ist gewissermaßen Konsens unter jenen, die sich mit Künstlicher Intelligenz befassen und sich öffentlich dazu äußern. Dazu zählt auch der katholische Theologe Lukas Brand von der Ruhr-Universität Bochum. Er sagte hier im Deutschlandfunk:
"Ich kann eben immer nur dafür plädieren, dass wir, solange wir das Ruder noch in der Hand haben, das auch benutzen sollten, und eben Maschinen und maschinelle Entscheidungen nicht an solchen Stellen einsetzen, an denen das Wohl größerer Gruppen oder eben der gesamten Gesellschaft in Frage steht. Also wir sollten keine autonomen Waffensysteme bauen, die eben selber im Krieg entscheiden über Leben und Tod von Zivilpersonen, von möglichen Terroristen, von möglichen strategischen Zielen."
Es gibt jedoch Staaten und Unternehmen, die an genau solchen Waffensystemen arbeiten. Immer wieder genannt werden die USA, Russland, China und Israel. Sie wollen offenbar nicht abgehängt werden bei der Entwicklung neuer und möglicherweise überlegener Waffen.
"Dann könnten die Offiziere nach Hause gehen"
Zugleich versuchen andere Staaten, darunter auch Deutschland, autonome Waffensysteme weltweit zu ächten. Doch die Gespräche im Rahmen der UN-Waffenkonvention kommen kaum voran – im Gegensatz zur Entwicklung der Waffen. Soweit bekannt sind bislang allerdings noch keine autonomen "Killer-Roboter" im Einsatz. Das Beispiel mit der Drohne und dem Computer, die selbst entscheiden, einen Terroristen anzugreifen, auch wenn dabei Kinder sterben – dieses Beispiel bleibt also vorerst fiktiv.
Aber könnte man ein solches Waffensystem nicht einfach so programmieren, dass es nur dann angreift, wenn sicher ist, dass keine Unbeteiligten zu Schaden kommen? Von Schubert:
"Dann könnten die Offiziere nach Hause gehen. Es kann Situationen geben, wo wir - und das ist im Völkerrecht vorgesehen, deshalb gibt es die Ungeheuerlichkeit einer Kollateralschadensregel im Völkerrecht für dramatische Dilemmata, für dramatische Konfliktlagen. Dieses Kalkül ist natürlich im normalen Recht, das wir kennen, völlig undenkbar. Für den begrenzten Raum und die begrenzte Zeit eines bewaffneten Massenkonfliktes ist es eine Argumentationsfigur, die das Völkerrecht vorsieht, die aber mit höchster Restriktion behandelt werden muss, und nicht einem Computer überlassen werden darf."
"Computer sind da zu eindimensional"
Heißt also: Die politisch-militärische Entscheidung könnte lauten, dass angegriffen wird, obwohl dabei Unschuldige umkommen werden. Sie könnte aber auch anders lauten. Und zu solchen komplexen moralischen Abwägungen seien Computer nicht in der Lage, meint der evangelische Militärdekan Hartwig von Schubert:
"Die Bewältigung der Komplexität muss in den Händen der Menschen bleiben, die aus ihren Erfahrungen und auch aus ihrer ganzen Komplexitätswahrnehmung schöpfen. Das heißt: Wir müssen das, was der Computer uns vorschlägt, immer unter Vorbehalt sehen, und müssen es dann einbauen in die komplexen Wahrnehmungen, die wir haben, in dem sozialen Fall, in dem wir uns befinden. Das kann man nicht einfach den Computern überlassen, die Computer sind da zu eindimensional."
Doch selbst wenn vollautomatische Waffensysteme geächtet werden sollten und am Ende immer ein Mensch entscheiden muss, ob geschossen wird oder nicht – selbst dann könnte es sein, fürchtet Hartwig von Schubert, dass die Entscheidung tatsächlich von den Computern getroffen wird. Weil die Menschen dazu tendieren könnten, sich blind zu verlassen auf die Vorschläge der Künstlichen Intelligenz:
"Diese Gefahr besteht, dass die Systeme so eine Eigendynamik bekommen, dass der Handlungsspielraum der beteiligten Personen sozusagen gegen null tendiert, weil sie glauben, die Maschinen haben ja schon entschieden."