Donnerstag, 18. April 2024

Archiv

Digitalgipfel 2018
"Ethik als Beschleuniger der KI verstehen"

Digitale Technologien und Künstliche Intelligenz müssten ethisch gestaltet werden, damit sie unsere Gesellschaft nicht überrollten, sagte Christiane Woopen, Sprecherin der Datenethikkommission der Bundesregierung, im Dlf. Weder Verfassungsgrundsätze noch unsere Demokratie dürften aufs Spiel gesetzt werden.

Christian Woopen im Gespräch mit Sandra Schulz | 04.12.2018
    Illustration zum Thema Künstliche Intelligenz - ein Gehirn über einer Festplatte in Blau mit Verfremdungseffekten.
    Die Bundesregierung will Künstliche Intelligenz bis 2025 mit drei Milliarden Euro fördern (imago / Christian Lagerek / Science Photo Libra)
    Sandra Schulz: Man kann vielleicht der Meinung sein, dass mit dem einschlägigen Film von Stanley Kubrick, mit "2001: Odyssee im Weltraum" bis auf weiteres alles gesagt sei zum Thema Künstliche Intelligenz. Kubrick setzt sich darin ja mit der menschlichen Angst auseinander, dass am Ende ein Rechner entscheidet über Leben und Tod. Kubricks Werk ist 50 Jahre alt, der Forschungsstand inzwischen durchaus fortgeschritten. Eine selbstlernende Software ist im Go-Spielen, im Schach Asiens, von Menschen nicht mehr zu übertreffen. Bei ihrem Digitalgipfel in Nürnberg stellt die Bundesregierung jetzt die Künstliche Intelligenz in den Mittelpunkt.
    Im September hat sich in Berlin die Daten-Ethik-Kommission konstituiert. Ganz grob gesprochen ist das die für Digitalisierung und Künstliche Intelligenz zuständige Ethik-Kommission. Eine der beiden Sprecherinnen hilft uns in den kommenden Minuten beim Sortieren. Am Telefon ist Professor Christiane Woopen. An der Uniklinik Köln leitet sie die Forschungsstelle Ethik. Schönen guten Morgen!
    "Individuum vor Eingriffen in Privatsphäre schützen"
    Christiane Woopen: Guten Morgen, Frau Schulz.
    Schulz: Welche ethischen Fragen müssen jetzt ganz dringlich beantwortet werden?
    Woopen: Wir haben ein ganzes Set an ethischen Fragestellungen. Wie gehen wir mit den vielen Daten um, die wir erheben können? Wem gehören die? Wer soll davon profitieren können? Wie schöpfen wir den Mehrwert daraus, den ja die modernen Technologien versprechen?
    Es geht aber auch darum, das Individuum zu schützen vor Eingriffen in die Privatsphäre, vor allzu tiefen Persönlichkeits-Profilbildungen, in die die Person vielleicht gar nicht eingewilligt hat.
    Und es geht natürlich auch darum, den gesellschaftlichen Wohlstand, aber auch die Gerechtigkeit nicht aus dem Blick zu verlieren.
    Wichtig ist es, glaube ich, die Ethik hier als Beschleuniger und als sicherndes Element zu verstehen, und nicht umsonst sagen ja bis zur europäischen Ebene hoch viele, dass gerade eine ethische Künstliche Intelligenz, "ethical artificial intelligence", das europäische Markenzeichen sein könnte.
    Schulz: Sehen Sie denn da noch viel Gestaltungsspielraum? Die US-Digitalkonzerne sind ja vorne wegmarschiert, China im Moment auch. Sie haben das Thema Datenschutz angesprochen. Sehen Sie da den Hauch einer Chance, überhaupt ethisch nach europäischen Vorstellungen noch mitzugestalten?
    Woopen: Ich glaube tatsächlich, dass die europäische Diskussion und nicht zuletzt ja auch mit Deutschland als starker Stimme da international eine Menge bewegen kann. Die europäische Datenschutz-Grundverordnung hat weltweit tatsächlich für eine Beförderung dieser Diskussion gesorgt. Ich mache mir große Sorgen in Richtung China. Ich glaube, die tatsächlich in diese ethische Diskussion einzubeziehen, ist ausgesprochen schwierig, oder hat jedenfalls deutlich andere Farben. Ich mache mir nicht so viele Sorgen bei Amerika. Ich war neulich dort und muss sagen, dass auch dort die Sorgen wachsen, und zwar nicht nur bei der Bevölkerung, sondern auch bei den Firmen, die sich durch die Dinge, die wir bei Facebook und Google etc. beobachten, auch durchaus besorgt zeigen, weil das Image darunter auch leidet, was dort an ernsthaften Bemühungen unterwegs ist.
    "Gesellschaftliche Kompetenz fördern"
    Schulz: Wird das erst in dem Moment ein Thema, in dem das auch wirtschaftlich für die Unternehmen zum Problem werden kann? Wir haben den Facebook-Skandal gesehen. Wir wissen, dass inzwischen viele Nutzer auch in Europa sich Geräte in die Wohnungen stellen, die quasi eine lückenlose Überwachung, ein lückenloses Mithören ermöglichen. Warum sind Ihre Sorgen da so relativ?
    Woopen: Meine Sorgen sind relativ. Allerdings ist meine Überzeugung, dass wir eine ganze Menge tun müssen, um es vernünftig zu gestalten. Da müssen wir schon sehr kraftvoll voranschreiten.
    Ich glaube, dass viele von uns so eine Ambivalenz erleben. Auf der einen Seite sehen wir die Bequemlichkeit, die diese Technologien vielleicht auch im häuslichen Bereich und in unserer Kommunikation bieten, großartig. Aber auf der anderen Seite ist uns schon ungemütlich, wenn wir mal vor Augen geführt bekommen, wie arg tief der Eingriff in die Privatsphäre und in die Persönlichkeit dann doch reichen kann.
    Die Daten-Ethik-Kommission hat ja schon zwei Empfehlungen abgegeben, die auch Eingang in die Strategie Künstliche Intelligenz der Bundesregierung gefunden haben. Eine davon bezieht sich auf die Informationsgesellschaft und die Förderung der individuellen und gesellschaftlichen Kompetenz, aber auch Reflektionsstärke. Wir können gar nicht unterschätzen, wie sehr wir alle Akteure brauchen, um in einen gesellschaftlichen Dialog einzutreten, um wirklich auch den Nutzen von Daten und Künstlicher Intelligenz zu heben, aber gleichzeitig es so zu gestalten, dass es uns nicht überrollt und dass wir unsere deutschen und auch europäischen Werte, die Verfassungsgrundsätze und vor allen Dingen auch unsere Demokratie nicht aufs Spiel setzen.
    Schulz: Sehen Sie diese Reflektionsmöglichkeit oder Fähigkeit, wie Sie es gerade nennen? Sehen Sie das denn, wenn wir zurückdenken an die 80er-Jahre, in denen Menschen protestierten, die einen Datensatz erfasst oder gerade nicht erfasst wissen wollten im Zuge der Volkszählung, die dann ja auch zum Urteil des Bundesverfassungsgerichts geführt hat – ein Datensatz, der im Vergleich dazu, was heute erfasst wird über Nutzer, über Verbraucher, ein absoluter Witz war?
    Woopen: Ja, das ist dieses Wort der Skalierung, dass hier natürlich auch zutrifft. Diese enorme Ausweitung an Datenerfassung, Verfügbarkeit, Verwertbarkeit hat natürlich überhaupt keinen Vergleich zu dem, was in den 70er und 80er-Jahren technisch möglich war. Deswegen glaube ich, dass wir uns tatsächlich sehr anstrengen müssen, diesen gesellschaftlichen Dialog nach vorne zu bringen, und wie gesagt, ich sehe da nicht nur die Bundesregierung und die Politik in der Pflicht, sondern auch die Bildungseinrichtungen, die Volkshochschulen, die Kommunen, die Gemeinden. Alle müssen da jetzt tatsächlich nachlegen und die Menschen informieren. Bevölkerungsumfragen zeigen ja zum Teil einen sehr bedauerlichen Informationsstand in der Bevölkerung. Da aber alle mit einem Smartphone in der Hand herumlaufen und diese Dinge nutzen, müssen wir dort dringend sowohl das Bewusstsein schaffen, aber wir brauchen auch natürlich an der einen oder anderen Stelle Regulierung. Diese Regulierung soll nicht blockieren; die soll einfach auch das Vertrauen in der Bevölkerung schaffen, dass die Nutzung dieser Technologie nicht mit persönlichen Gefahren einhergeht.
    Regulierung bei Algorithmen notwendig
    Schulz: Welche Regulierung?
    Woopen: Eine Regulierung beispielsweise, die die Algorithmen, die verwendet werden, um Daten auszuwerten, um im Internet beispielsweise zu entscheiden, ob das Hotelzimmer für den einen 50 Euro kostet und für den anderen 150 Euro kostet, je nachdem von welcher Webseite er auf diese Buchungsseite geraten ist, oder von welchem Gerät, ob von einem Apple oder von einem Android-Gerät er diese Hotelseite aufgerufen hat. So etwas muss reguliert werden, damit wir nicht Macht-Inbalancen bekommen, die letztlich unsere Systeme auch der sozialen Marktwirtschaft aushebeln.
    Schulz: Deutschland und Europa sollen zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologie werden. Das ist eines der Ziele, so formuliert von der Bundesregierung. Kann man das einfach so beschließen?
    Woopen: Das kann man natürlich nicht beschließen. Man kann aber beschließen, dass man dieses Ziel verfolgt, und dann muss man natürlich auch die kraftvollen Mittel einsetzen. Ich glaube, dass Deutschland tatsächlich gute Chancen hat, da einen großen Fortschritt zu erreichen. Immerhin haben wir das größte Forschungszentrum für Künstliche Intelligenz mit dem DFKI. Wir sind in der Industrie extrem weit. Wir sind in der Mobilität, bei den Patenten, bei den Systemen für die autonom, automatisiert fahrenden Autos sehr weit vorne. Es gibt Ansatzpunkte. Ich glaube nur, wenn von Künstlicher Intelligenz die Rede ist, denken die meisten nur an Facebook und Google. Aber das Feld ist natürlich sehr, sehr viel breiter.
    Schulz: Professor Christiane Woopen, Sprecherin der Daten-Ethik-Kommission und heute Morgen hier bei uns im Deutschlandfunk. Ganz herzlichen Dank!
    Woopen: Danke Ihnen!
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.