Samstag, 07.12.2019
 
Seit 18:00 Uhr Nachrichten
StartseiteForschung aktuell"Europa hat die geistige Führung übernommen"08.04.2019

Debatte um Künstliche Intelligenz"Europa hat die geistige Führung übernommen"

Die Entwicklung Künstlicher Intelligenz birgt große Chancen - aber auch Risiken. Um Missbrauch zu verhindern, hat die EU-Kommission ein Expertengremium beauftragt, ethische Leitplanken für KI-Systeme zu entwerfen. Der Philosoph Thomas Metzinger wertet das Ergebnis kritisch, aber dennoch als wichtigen Schritt.

Thomas Metzinger im Gespräch mit Ralf Krauter

Hören Sie unsere Beiträge in der Dlf Audiothek
Weibliches Gesicht mit Computerplatinen, Symbolfoto künstliche Intelligenz (dpa / Christian Ohde)
Roboter mit künstlicher Intelligenz könnten unseren Alltag künftig tiefgreifend verändern. (dpa / Christian Ohde)
Mehr zum Thema

Künstliche Intelligenz und Menschenwürde "Die Politik muss das Heft in die Hand nehmen"

Digitalgipfel 2018 "Ehtik als Beschleuniger der KI verstehen"

Künstliche Intelligenz "Roboter gehören zur Schöpfung"

Informationsgesellschaft "Künstliche Intelligenz oder künstliche Dummheit?"

Ralf Krauter: In Brüssel hat heute eine von der EU-Kommission eingesetzte Expertenkommission ihren Abschlussbericht vorgelegt. In dem Papier, in dem es um ethische Leitlinien für Entwicklung und Einsatz von Künstlicher Intelligenz geht, heißt es, Zitat: "Vertrauenswürdigkeit ist eine Voraussetzung dafür, dass Menschen und Gesellschaften KI-Systeme entwickeln und einsetzen." Der Philosoph Professor Thomas Metzinger von der Universität Mainz ist Mitglied des 52-köpfigen Expertengremiums. Ich habe ihn vorhin gefragt: Welche ethischen Mindestanforderungen sollten KI-Systeme künftig erfüllen, damit wir Ihnen vertrauen können?

Menschen die Angst vor der Technologie nehmen

Thomas Metzinger: Erstmal muss man ganz klar sagen, dass das begrifflicher Unsinn ist. Menschen sind vertrauenswürdig. Maschinen sind nicht vertrauenswürdig oder nicht. Und es könnte sehr gut sein, dass wir sehr gute, robuste KI-Systeme haben, die von nicht vertrauenswürdigen Regierungen oder Großkonzernen eingesetzt werden – und dann wäre das auch ethisch problematisch. Also diese ganze Formulierung der ‚trustworthy AI‘ ist auch ein bisschen Marketing-Rhetorik. Es geht darum, den Leuten die Angst vor dieser Technologie zu nehmen.

Gut ist die Verankerung in der europäischen Verfassung, in den europäischen Grundrechten. Wir haben sehr stark darauf geachtet, dass KI in Europa immer so sein muss, dass der Mensch im Mittelpunkt steht, dass der Mensch immer wissen muss, wann er mit einer KI spricht, dass die sich nie ihm gegenüber nicht verschleiern darf, dass das alles so angelegt ist, dass der Mensch seine Autonomie bewahrt. Und aber auch seine Verantwortlichkeit, dass die nicht an Maschinen übertragen wird. Was die juristische Grundlegung angeht, sind diese Ethik-Richtlinien sehr gut, denke ich.

Krauter: Aber Sie sind nicht mit allem zufrieden, was da jetzt drin steht. Hatten Sie sich was anderes oder mehr erhofft?

Metzinger: Meine Aufgabe war, über mehrere Monate so genannte rote Linien mit Urs Bergmann aus Berlin zu erarbeiten. Rote Linien sind etwas, was in Europa auf keinen Fall gemacht werden soll, das heißt, nicht verhandelbare ethische Prinzipien. Sowas gibt es jetzt nicht mehr. Die Industriemehrheit in der Gruppe hat darauf bestanden, dass am Ende der Begriff ‚red line‘ komplett aus dem Dokument gelöscht wird. Sie müssen auch sehen, dass 52 Experten, die die Ethik-Richtlinien zusammen gestellt haben, vier Ethiker enthalten haben und 48 Nicht-Ethiker. Das heißt, es gab da ein starke Industriemehrheit.

Die IT-Unternehmen haben ihre Interessen durchgesetzt

Der Industrie geht es im Wesentlichen darum, gesetzliche Regulation zu verhindern, aufzuweichen und zu verschieben. Und alles, was irgendwie bindend sein könnte, aufzuweichen, das ist ihnen ganz gut gelungen.

Gut an dem Dokument ist neben der juristischen Grundlage auch die Zusammenstellung der abstrakten ethischen Prinzipien wie Schadensvermeidung oder Fairness. Der große Schaden, der angerichtet worden ist, ist bei den konkreten Beispielen. Erstens ist es kurzsichtig: Langzeitrisiken wie die Entstehung von unkontrollierbaren, sich selbst optimierenden Systemen, künstlichem Bewusstsein oder künstlichen moralischen Agenten sind komplett aus dem Dokument gelöscht worden, um die Leute nicht zu verunsichern. Dann gibt es aber auch das, was vorher die roten Linien waren. Also das Überwachen von Bürgern und so weiter. Das ist jetzt alles stark eingeschränkt worden und Gegenstand von Güterabwägungen. Also in Europa gibt es in dem Moment keine absoluten Werte mehr, etwas, was wir wirklich nicht machen würden. Sondern alles kann im Prinzip verhandelt werden.

Europa muss Standards setzen - sonst macht es keiner

Krauter: Trotzdem habe ich Sie so verstanden – und Sie äußern sich auch im Tagessspiegel heute dahingehend – dass Sie sagen: Naja, das ist zwar ausbaufähig. Aber es ist das Beste, was weltweit derzeit auf dem Markt ist, im Sinne eines moralischen Handbuchs für den Umgang mit KI-Systemen?

Metzinger: Ja, ich glaube Europa hat jetzt gerade die geistige Führung übernommen in dieser globalen KI-Debatte. Wir müssen auch sehen, dass wir in Europa alleine stehen – zwischen dem Totalitarismus 2.0, der in China gerade entsteht, und der US-amerikanischen Trump-Regierung, die sowieso moralisch diskreditiert ist bis auf die Knochen. Die werden ja auch KI militärisch anwenden. Wenn wir in Europa jetzt nicht den normativen, ethischen, politischen Rahmen schaffen für diesen technologischen Übergang, dann wird es niemand tun.

Deswegen ist es ganz wichtig, dass wir die geistige Führerschaft auch behalten und weiter ausbauen. Wir brauchen uns nicht zu erhoffen, dass aus USA oder China da große oder überzeugende Beiträge kommen werden.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk