Freitag, 27.11.2020
 
Seit 16:35 Uhr Forschung aktuell
StartseiteForschung aktuell"Nur Menschen können etwas verantworten"15.05.2020

Automatisierte Waffensysteme"Nur Menschen können etwas verantworten"

Europas neues Kampfflugzeug soll in Geschwadern mit Drohnen fliegen und ab 2040 den Luftraum verteidigen. Ethische Überlegungen müssten die Entwicklung des "Future Combat Air System" von Beginn an begleiten, sagte Fraunhofer-Forscher Wolfgang Koch im Dlf - damit Menschen verantwortlich bleiben.

Wolfgang Koch im Gespräch mit Ralf Krauter

Hören Sie unsere Beiträge in der Dlf Audiothek
Graphische Darstellung des Future Combat Air Systems (FCAS) (Airbus Defence and Space)
Graphische Darstellung des "Future Combat Air System", das dank vieler vernetzter Komponenten Lufthoheit sicherstellen soll (Airbus Defence and Space)
Mehr zum Thema

"Technikverantwortung bei FCAS" Webseite der interdisziplinären Arbeitsgruppe

Autonome Waffensysteme Kampfroboter heute und in Zukunft

Autonome Waffen KI-Systeme fürs Militär

Kampfroboter Wenn Maschinen das Töten übernehmen

Künstliche Intelligenz und Ethik Dürfen Roboter töten?

Vor gut einem Jahr gaben Deutschland und Frankreich gemeinsam den Startschuss für ein Mega-Rüstungsprojekt. Sein Name: "Future Combat Air System", kurz FCAS. Dahinter verbirgt sich eine neue Flotte von Kampfflugzeugen, die mit Begleitschutz durch autonom fliegende Drohnen den Luftraum verteidigen und Angriffe ausführen sollen. Weil Digitalisierung und künstliche Intelligenz dabei eine Schlüsselrolle spielen, gibt es auch wichtige ethische Fragen, die bei der Entwicklung geklärt werden müssen.

03.07.2019, Sachsen, Schkeuditz: Peter Tauber (CDU), Parlamentarischer Staatssekretär im Bundesministerium der Verteidigung, spricht während einer Pressekonferenz zur Gründung der neuen Agentur für Cybersicherheit des Bundes am Flughafen Leipzig/Halle. Die Cyberagentur soll noch in diesem Jahr ihre Arbeit aufnehmen. Sie soll Forschungs-und Entwicklungsprojekte für mehr Internetsicherheit fördern und dafür 100 Beschäftigte bekommen. Foto: Hendrik Schmidt/dpa-Zentralbild/ZB (picture alliance / Hendrik Schmidt / dpa-Zentralbild / ZB) (picture alliance / Hendrik Schmidt / dpa-Zentralbild / ZB)CDU-Politiker Tauber: "Bewaffnete Drohnen bieten zusätzlichen Schutz für eigene Truppen" 
Der Einsatz bewaffneter Drohen wie in den USA sei in Deutschland schon rein rechtlich nicht möglich, sagte Peter Tauber, Staatssekretär im Verteidigungsministerium. Die Debatte sei aber wichtig.

Die Rüstungssparte von Airbus und ein Team von Fraunhofer-Forschern hat dazu eine Arbeitsgruppe ins Leben gerufen, die sich gestern bei einer Videokonferenz erstmals präsentierte. Initiiert wurde sie von Professor Wolfgang Koch vom Fraunhofer Institut für Kommunikation, Informationsverarbeitung und Ergonomie auf dem Wachtberg bei Bonn.

Ralf Krauter: Welche Rolle spielten ethische Überlegungen bislang bei der Entwicklung neuer Kampfflugzeuge, und welche sollten sie künftig spielen?

Wolfgang Koch: Die Frage nach dem ethisch akzeptablen und völkerrechtlich legitimen Einsatz von Waffentechnologien – Kampfflugzeuge sind Waffentechnologien – ist natürlich alt, und immer schon haben Menschen darüber nachgedacht. Ich denke, durch die Digitalisierung, durch die künstliche Intelligenz, durch Automatisierung, also durch die Welt der Algorithmen kommt etwas qualitativ Neues ins Spiel: Komplexität, sehr hohe Geschwindigkeit, aber auch besondere Verwundbarkeit. Daher geht es heute ganz zentral um technische Beherrschbarkeit - und zwar Beherrschbarkeit durch den Menschen.

Wir nennen das "meaningful human control" – das ist ein ganz zentraler Begriff in der Diskussion. Und Beherrschbarkeit ist die Voraussetzung für verantwortbaren Waffeneinsatz. Nur Menschen können etwas verantworten, keine Maschine kann das. Jede Maschine ist ein Ding, ein Etwas. Nur eine Person ist ein Jemand und kann Verantwortung tragen. Aus diesem Grund müssen ethische Überlegungen die Entwicklung neuer Kampfflugzeuge von Beginn an begleiten, um Beherrschbarkeit und Verantwortbarkeit zu garantieren. Das ist eine grundsätzliche Systemfrage, die da beantwortet werden muss.

Wieviel Automatisierung ist machbar, ohne die Kontrolle zu verlieren? 

Krauter: Jetzt gehen ja Experten davon aus – Sie haben das auch schon angesprochen –, dass sich Kampfhandlungen künftig dank Digitalisierung und Robotik enorm beschleunigen werden. Einfach weil clevere Algorithmen viel schneller Entscheidungen treffen können als ein Mensch - weshalb ja auch heute schon Luftabwehrsysteme teils automatisiert oder vollautomatisiert arbeiten, weil die Reaktionszeit der Menschen zu lange wäre. Bedeutet das nicht zwangsläufig, dass der Pilot im Luftkampf über kurz oder lang die Verantwortung dafür abgeben wird, auf welches Ziel er eine Rakete abfeuert und auf welches nicht?

Koch: Das ist genau die zentrale Frage, die man stellen muss - und die Frage ist gar nicht so neu. Im Jahr 1954, ein Jahr, bevor die Bundeswehr gegründet wurde, antwortet darauf General Wolf von Baudissin: "Das aufs Höchste technisierte Gefecht verlangt, dass die Verantwortung an sehr vielen unteren Stellen gesehen und getragen wird. Daher muss alles getan werden, um den Menschen vor Situationen zu stellen, die seine Verantwortung herausfordern und ihn die Folgen von Tun und Unterlassen erleben lassen."

Also wir haben hier eine Thematik, die uns immer beschäftigt. Der zentrale Begriff ist und bleibt Verantwortbarkeit, der auch dann gegeben sein muss, wenn einzelne Vorgänge hochautomatisiert  ablaufen müssen. Die Frage, die Sie stellen, heißt: Ist unter bestimmten Umständen automatisierte Hochtechnologie in der Luftverteidigung verantwortbar? Meine These lautet: Basierend auf einem von Menschen definierten Regelwerk kann dies möglich sein. Jedenfalls muss man das diskutieren. Die Frage stellt sich ja auch in zivilen Anwendungen. Denken Sie nur an das autonome Fahren. Auch da läuft viel automatisiert ab.

Komplexe Technik muss intuitiv bedienbar sein

Krauter: Sie fordern, das technische Design muss Verantwortbarkeit nahelegen und erleichtern. Wie könnte sowas ganz konkret im Cockpit eines künftigen Kampfjets aussehen?

Koch: Das ist genau die Forschungsfrage, der wir uns stellen: Wie kann man das operationalisieren? Aber ich will schon jetzt eine Antwort darauf versuchen. Ich beschäftige mich ja schon lange mit Computern. Ich weiß noch ganz genau, wie kompliziert das war, mit diesen Dingern so umzugehen, dass sie am Ende genau das taten, was ich wollte. Für mich ist das Smartphone so eine Art Metapher für eine Antwort. Nichts in einem Smartphone ist ja wirklich neu, aber eine Innovation haben Smartphones dadurch ausgelöst, dass sie ein komplexes system of systems, das mit anderen Systemen vernetzt ist, mit anderen Smartphones, mit Clouds vernetzt ist, für jedermann handhabbar gemacht haben.

Die komplexe Technologie eines "Future Combat Air System" muss für den Piloten genau so intuitiv handhabbar sein. So gewinnt er Freiraum, um das zu tun, was nur Menschen können, nämlich wirklich intelligent und verantwortungsvoll handeln. Nach dieser Metapher müsste man vorgehen: Bedienbarkeit, Beherrschbarkeit und dadurch Verantwortbarkeit. Das ist das Thema der Arbeitsgruppe. Ein ganz konkretes Systemdesign wird am Ende hoffentlich herauskommen.

"Automatisierung kann verantwortbar sein"

Krauter: So eine klassische Luftkampfsituation wäre ja ein feindlicher Drohnenschwarm im Anflug. Der Pilot selbst ist wahrscheinlich überfordert. Also wird irgendein künstliches Intelligenzsystem künftig die Ziele anzeigen, und er muss dann nur noch den Knopf drücken, um die abzufeuern? Oder wie muss man sich das vorstellen?

Koch: Also beim FCAS-System spielt die bemannte Komponente eine zentrale Rolle. Aber der bemannte Fighter ist umgeben von unbemannten Komponenten – wir nennen das remote carriers, man könnte auch Drohnen sagen –, die als "loyal wing man" den Piloten begleiten. Wenn Drohnenschwärme angreifen, dann kämpfen Maschinen gegen Maschinen. Das sind also autonome Waffensysteme, die auch durch autonome Waffensysteme bekämpft werden müssen. Das muss sehr schnell geschehen. Ohne Frage, hier gibt es Hochautomatisierung. Aber die Entscheidung, diese Waffensysteme einzusetzen und im Vorfeld solche Waffensysteme zu konfigurieren, liegt beim Menschen. Die These ist: Auch Automatisierung kann verantwortbar sein.

A mock "killer robot" is pictured in central London on April 23, 2013 during the launching of the Campaign to Stop "Killer Robots," which calls for the ban of lethal robot weapons that would be able to select and attack targets without any human intervention. The Campaign to Stop Killer Robots calls for a pre-emptive and comprehensive ban on the development, production, and use of fully autonomous weapons. AFP PHOTO/CARL COURT (Photo by CARL COURT / AFP) (AFP / Carl Court) (AFP / Carl Court)Automatisierter Krieg - Wenn Roboter töten können 
Sind Roboter die Soldaten der Zukunft? Sie können navigieren, überwachen und selbstständig zielen – und sie könnten als autonome Tötungsmaschinen die Zukunft der Kriegsführung radikal verändern.

Krauter: Die Arbeitsgruppe ist interdisziplinär besetzt. Neben Rüstungsingenieuren sind auch Politikwissenschaftler dabei, Friedensforscher und eine Theologin. Was glauben Sie denn, wie groß der Einfluss solch eines Expertengremiums letztlich sein wird? Denn die Erfahrung lehrt ja auch: Manchmal werden die nur als Feigenblatt benutzt oder als Akzeptanzbeschaffer, um der Öffentlichkeit vielleicht Dinge zu vermitteln, die die Forscher schon lange für gut befunden haben. Wie groß kann der Einfluss solch einer Arbeitsgruppe realistischerweise sein?

Koch: Also wir haben die Gelegenheit, uns hier einzubringen, insofern öffnet sich da eine Möglichkeit, nicht am Spielfeldrand zu stehen und zu lamentieren. Ob wir was bewirken, das wird man am Ende sehen. Aber wenn wir jetzt sagen, wir machen da nicht mit, und wenn wir auch nicht an die Öffentlichkeit gehen und ganz transparent darlegen, was wir tun – und wir tun das durch die Homepage, die wir heute vorgestellt haben, und diese Homepage wird die Fortschritte unserer Diskussionen auch dokumentieren –, wenn wir da nicht den Versuch unternehmen, sind wir selber schuld. Ich bin eigentlich guter Dinge, und ich nehme seitens der Bundeswehr, ich nehme seitens des Verteidigungsministeriums und der Industrie, der Forschung und Thinktanks und der politischen Stiftungen den Willen wahr, hier verantwortlich zu gestalten und zu einem guten Ergebnis zu kommen.

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk