Mittwoch, 12.12.2018
 
Seit 21:05 Uhr Querköpfe
StartseiteComputer und KommunikationVon Sicherheitslücken und Datenschutz08.12.2018

Digital-GipfelVon Sicherheitslücken und Datenschutz

Eine Meldepflicht für IT-Sicherheitslücken, Datenschutz sowie Künstliche Intelligenz und ihre ethischen Fragen waren wichtige Themen auf dem Digital-Gipfel der Bundesregierung in dieser Woche. Dabei kamen stärker als früher Wissenschaftler zu Wort, berichtet Technik-Experte Peter Welchering im Dlf.

Peter Welchering im Gespräch mit Manfred Kloiber

Hören Sie unsere Beiträge in der Dlf Audiothek
Ein Roboter auf der Cebit. (dpa/Hauke-Christian Dittrich)
Die KI-Strategie der Bundesregierung war das beherrschende Thema des Digital-Gipfels (dpa/Hauke-Christian Dittrich)
  • E-Mail
  • Teilen
  • Tweet
  • Drucken
  • Podcast
Mehr zum Thema

Woppen (Datenethikkommission) "Ethik als Beschleuniger der Künstlichen Intelligenz verstehen"

Künstliche Intelligenz Diskussion um KI steht noch ganz am Anfang

"Wann kapiert eigentlich die Politik, dass eben KI, das Internet, dass die Digitalisierung einfach im Augenblick um Lichtjahre wichtiger sind als die Frage, ob man Hartz IV jetzt aufgeben soll, ob man ein halbes Jahr länger oder kürzer arbeiten soll. Das ist gut. Bei einem solchen Digital-Gipfel, da wird das Bewusstsein fokussiert. Aber ich habe den Eindruck, die Politik hat es noch immer nicht kapiert. Denn sie führt andere Diskussionen."

Manfred Kloiber: Das fragte Sigmund Gottlieb, ehemaliger Chefredakteur des Bayerischen Fernsehens am ersten Tag des Digital-Gipfels der Bundesregierung, der am Montag und Dienstag dieser Woche in Nürnberg stattfand. Wie haben die angereisten Mitglieder der Bundesregierung dem Herrn Gottlieb denn geantwortet, Peter Welchering?

Peter Welchering: Ausweichend, teilweise mit etwas Medienschelte. Die Medien würden halt die Themen der Diskussionen vorgeben, lautete eine der Antworten. Die Bundesregierung habe doch eine ganz tolle KI-Strategie mitgebracht. Und Christian Hirte, der Parlamentarische Staatssekretär beim Bundesminister für Wirtschaft und Energie, der lobte dann auch noch ein bisschen: Wann kapiert eigentlich die Politik, dass eben KI, das Internet, dass wir hier bei dem Digital-Gipfel sehen, dass wir in Deutschland, anders als manchmal der öffentliche Eindruck ist, eigentlich an der Spitze des Fortschritts stehen. Ja es gibt ganz ganz viele Punkte, da sind wir in der Gefahr, dass andere uns den Rang ablaufen. Aber momentan sind wir noch in der absoluten Spitze."

Seehofer äußert sich zu Meldepflicht für IT-Sicherheitslücken

Kloiber: Das beherrschende Gipfelthema war ja diesmal die KI-Strategie der Bundesregierung. Die allerdings ist ja schon vor ein paar Wochen verabschiedet und erheblich diskutiert worden. Hatte der Digital-Gipfel da eigentlich noch Neuigkeiten mit großem Nachrichtenwert zu bieten?

Welchering: In Sachen Künstlicher Intelligenz nicht, da wurden die Debatten der vergangenen Wochen noch einmal wiederholt. Aber Bundesinnenminister Horst Seehofer, der hat noch eine Überraschung rausgeholt. Mit minimaler Vorlaufzeit von nur einer Stunde hatte nämlich das Bundesinnenministerium für den späten Montagnachmittag zu einem Pressegespräch mit Seehofer eingeladen. Es kam denn auch nur eine Handvoll Journalisten. Das hatte aber den Vorteil: Es gab Zeit für Fragen an und Diskussion mit Seehofer.

Der Innenminister spulte so das übliche Programm ab, stellte vor, was er abends in seiner Keynote so sagen wollte und machte noch ein paar Anmerkungen zur nächsten Stufe des IT-Sicherheitsgesetzes. Da wird ja gerade im Ministerium kräftig an den Vorlagen für den Gesetzestext gefeilt. Und auf die Frage des Deutschlandfunk-Reporters, warum trotz aller Expertenmahnungen noch immer keine Meldepflicht für Sicherheitslücken im IT-Sicherheitsgesetz vorgesehen sei, stellte Seehofer ein paar Nachfragen, warum so eine Meldepflicht für Sicherheitslücken denn sinnvoll sein könne.

Im Laufe dieser Diskussion wurden übrigens die anwesenden Ministerialbeamten hochgradig nervös und argumentierten mit Sicherheitsbedenken gegen eine Meldepflicht für Sicherheitslücken. Am Ende der Diskussion jedenfalls verblüffte Seehofer die Anwesenden ein wenig, denn er wandte sich da an seinen Stabschef, und weil er sich dabei ein wenig vom Mikrofon abwandte, ist die Tonqualität auch nicht so ganz toll, aber zu verstehen. Also: Seehofers Ansage in Sachen Meldepflicht für Sicherheitslücken im IT-Sicherheitsgesetz lautet:

"Aber das nehmen wir mit. Sie kriegen jetzt jede Woche die Frage: Wo ist die Meldepflicht? Das klingt jetzt ein wenig spaßig. Wenn man so eine Pflicht in ein Gesetz schreibt, dann muss es auch die Wirkung entfalten, die man sich davon verspricht. In der Politik ist es immer schlecht, wenn Sie Schaufenster-Geschichten machen, wenn Sie nur etwas machen, damit sie sagen können: Wir haben etwas gemacht, ohne dass sie in der Praxis eine positive Wirkung entfalten. Aber ich frage jetzt jede Woche: Wo ist die Meldepflicht?"

Diskussion um Sicherheitslücken als politisches Potenzial

Kloiber: Folgt aus dieser Seehofer-Ansage in Sachen Meldepflicht denn auch was hinsichtlich des IT-Sicherheitsgesetzes oder war das eher mal so in den Raum mit wenigen Journalisten gesprochen, die das eh rasch vergessen?

Welchering: Da kann man sich bei Seehofer nie so sicher sein, wie konsequent er etwas verfolgt. Er gilt da ja als eher sprunghaft. Aber er hat offensichtlich zwei Sachen verstanden auf dem Digital-Gipfel. Das zeigen auch seine Äußerungen am Montagabend in einer Podiumsdiskussion. Er hat begriffen, dass bisher Sicherheitslücken offengehalten werden, weil Nachrichtendienste und Militärs diese Sicherheitslücken für ihre Ausspähprogramme und ihre digitalen Waffen brauchen. Seehofer war in dieser Diskussion klar, dass man da abwägen muss zwischen dem Bedürfnis der Nachrichtendienste und Militärs nach Sicherheitslücken und der großen Gefahr, die davon ausgeht, wenn Sicherheitslücken nicht geschlossen werden. WannaCry hat den Minister da ganz offensichtlich beeindruckt. Das ist der eine Punkt.

Und der andere Punkt besteht in einer Trivialität des Politikbetriebs. Die Meldepflicht für Sicherheitslücken ist ja bisher am Einspruch der Nachrichtendienste und Militärs gescheitert. Und dieser Einspruch ist von allen drei Parteien der großen Koalition mitgetragen worden. Das politische Potenzial und der Aufmerksamkeitseffekt der sich jetzt ergibt, wenn der Bundesinnenminister jetzt hier wider den GroKo-Stachel löckt, dieses Potenzial hat Seehofer erkannt. Das dürfte zumindest zu einer Diskussion innerhalb des Kabinetts führen. Ob Seehofer sich dann von den nachrichtendienstlichen Bedenkenträgern gegen eine Meldepflicht für Sicherheitslücken und von den Bedenken einiger Sicherheitspolitiker in CDU und SPD einfangen lässt, das wird spannend zu beobachten sein.

Insgesamt ist übrigens auf diesem Digital-Gipfel der sogenannte Dual Use von Informationstechnik, natürlich auch Künstlicher Intelligenz ziemlich intensiv diskutiert worden. So merkte etwa Professor Julian Nida-Rümelin von der Ludwig-Maximilians-Universität München an:

"Die digitalen Technologien haben gewaltige Potenziale. Sie haben natürlich auch gewaltige Potenziale, die zerstörerisch wirken können. Zum Beispiel gehört die Trennung von privat und öffentlich zu den kulturellen Bedingungen der Demokratie. Wenn sich das wirklich auflösen würde, mit möglichen Kontrollmechanismen, wie es der Citizen Score in China schon einmal vorexerziert, wäre das eine Katastrophe für die weitere demokratische Entwicklung in den demokratischen Ländern."

"Wir sollten  die Füße auf dem Boden behalten, wenn wir über KI reden"

Kloiber: Mit dem Thema Social Scoring, bei dem die Bürger Chinas ja für Wohlverhalten mit Punkten belohnt und für Verhalten, das der Regierung missfällt, gibt es Punktabzug, sind wir ja bei einem ganz zentralen Thema. Nämlich: Was mit den Daten der Bürger passiert? Wie werden die für Scoring-Systeme, also zur Bewertung und teilweise Überwachung der Bürger eingesetzt? Welche ethischen Grenzen ergeben sich da auch für den Einsatz von Systemen Künstlicher Intelligenz? Wie ist das auf dem Digital-Gipfel diskutiert worden?

Welchering: Beide Fragen flossen in vielen Diskussionen auf dem zweitägigen Gipfel immer wieder ineinander. Klar geworden ist dabei auch, dass die KI-Strategie der Bundesregierung sehr stark unter dem Eindruck dessen formuliert worden ist, was Bundeskanzlerin Angela Merkel bei ihrem China-Besuch in Sachen maschinellem Lernen erlebt hat. Das grundlegende Problem dabei hat Professor Dietmar Harhoff, Direktor des Max-Planck-Instituts für Innovation und Wettbewerb, da so auf den Punkt gebracht:

"KI ist zum Beispiel für mich auch angelernte Intelligenz. Weil es ja manchmal mit dem künstlichen Denken noch nicht so ganz hapert. Meine Kollegen in Toronto nennen Algorithmen aus dem KI-Bereich, dem Machine-Learning-Bereich inzwischen Prediction Machines. Weil sie einfach sagen: Das sind Klassifikations-Algorithmen und nicht viel mehr. Ich sehe auch als jemand, der lange Zeit Ökonometrie und Statistik unterrichtet hat, mit großer Sorge, dass meine Doktoranden jetzt bei jedem Schätzer, die gibt‘s seit 40 Jahren, von KI reden wollen, und ich versuche das wieder auszureden. Wir sollten vielleicht die Füße so ein bisschen auf dem Boden behalten, wenn wir über KI reden."

Zu hohe Erwartungen an KI in der Kritik

Kloiber: Die spannende Frage ist dann ja: Sind denn die Politiker auf dem Digital-Gipfel auf dem Boden geblieben, als es um den Einsatz von Künstlicher Intelligenz ging?

Welchering: Dummerweise nein. Es gab zwar vermeintlich bodenständige Äußerungen wie von Wirtschaftsminister Peter Altmaier, der sich wünscht, dass ein Service-Roboter ihm im Alter das Bier aus dem Keller holt. Aber es gab auch völlig überzogene Erwartungen in Sachen KI. Immer wieder wurde von Künstlicher Intelligenz gesprochen, die unseren künftigen Wohlstand absichern soll. Und es war dann gar nicht so klar, was damit eigentlich gemeint ist. Das kritisieren übrigens auch Wirtschaftsvertreter. Der Wirtschaftsminister und seine Staatsekretäre malten zum Beispiel so eine Zukunftsvision an die Wand von der Künstlichen Intelligenz im autonomen Haus, die den Bewohnern jeden Wunsch erfüllt, schon bevor sie ihn äußern. Und das sei international doch ein Milliarden- bis Billionenmarkt mit unglaublichen Zuwachsraten. Darauf erwiderte beispielsweise Sebastiene Chaumiole vom Watson Industrie-Labor der IBM:

"Künstliche Intelligenz kennt keinen Kontext. Das heißt, wenn sie Daten analysieren, müssen Sie immer der Künstlichen Intelligenz sagen: In welchem Kontext haben wir das jetzt getan. Warum? Weil ansonsten kann keine KI lernen. Wenn er nicht weiß, wo der Bezug ist, wird auch keine KI lernen. Deswegen ist es extrem wichtig, dass man auch immer das Thema Expertise betrachtet. Und die Expertise kommt von wo? Die kommt von den Menschen, die auch selber wissen: Was möchte ich denn an Kapazitäten in meinem System sehen. Und diese müssen wir uns immer wieder herbeiführen. Warum? Weil wir damit unsere KI spezifischer machen können und weiter trainieren können."

Selbstfahrende Autos brauchen Rohdaten zum Lernen

Kloiber: Werden solche Bedenken der Industrievertreter denn zu einer Änderung oder Anpassung der KI-Strategie der Bundesregierung führen?

Welchering: Das ist schwierig zu beurteilen. Denn es gibt ja nicht nur Fachleute aus der Industrie, die darauf hinweisen, lasst uns jetzt erst einmal die Methoden Künstlicher Intelligenz, die eingesetzt werden sollen, genau definieren, sondern auch die Trainingsdaten. Es gibt eben auch Industrievertreter, die die Euphorie, die da in Sachen Künstlicher Intelligenz gerade nicht nur regierungsamtlich verbreitet wird, auch ein Stück weit nutzen wollen, um für sie hinderliche Bestimmungen der Datenschutzgrundverordnung zu kippen.

Klaus Büttner von BMW beispielsweise will bestimmte Einschränkungen, die die Datenschutzgrundverordnung bei Videoaufzeichnungen im öffentlichen Raum auch im Straßenverkehr macht, gekippt haben. Und er argumentiert so:

"Ein wichtiges Anliegen nochmal, weil wir eine sehr intensive Diskussion derzeit haben, und es geht auch bis in die Diskussion mit der Bundesregierung: Um solche Algorithmen zu trainieren, muss man auf Rohdaten arbeiten. Wenn Sie Bilder und Videos mit schwarzen Balken versehen oder verpixeln, dann lernt auch genau der Algorithmus das, dass Fußgänger ein schwarzes Brett vorm Kopf haben und damit natürlich nicht im Straßenverkehr erkennbar werden. Das heißt, wir müssen hier mit Rohdaten arbeiten. Firmen wie BMW, aber auch andere, haben keinerlei Interesse natürlich, persönliche Daten über diese Menschen, die als Passanten auf der Straße laufen, im Grunde zu sammeln. Es geht nur darum, den Algorithmus zu trainieren und auf Verhaltensweisen aufmerksam zu machen. Da brauchen wir sichere Rahmenbedingungen, in denen wir agieren können."

Kloiber: Klingt danach, als gäbe es erhebliche Probleme, robuste Rohdaten zu bekommen, um damit selbstfahrende Autos zu trainieren.

Welchering: Das ist auf dem Digital-Gipfel tatsächlich ein wenig dramatisiert worden. Ein selbstfahrendes Auto kann natürlich mit unverpixelten Rohdaten arbeiten. Aber die müssen von den Sensoren des Autos selbst geliefert werden. Die Automobilhersteller würden gern mit fertig konfektionierten Trainingsdatensätzen aus dem Straßenverkehr arbeiten. Das wäre dann Videomaterial, das tatsächlich im freien Handel verfügbar ist. Und für solches Material sieht die Datenschutzgrundverordnung tatsächlich andere Regeln vor als für die direkte Verarbeitung von Video- und Sensordaten durch das selbstfahrende Auto.

Für diese direkte Verarbeitung spricht übrigens noch ein weiter Grund: Die Entwickler können direkt nachvollziehen, wie und was das selbstfahrende Auto anhand der aufgenommenen Sensordaten lernt. Das ist allerdings teurer als mit fertig konfektionierten Trainingsdatensätzen zu arbeiten. Aber es ist auch sicherer, vorausgesetzt, es werden Kontrollsysteme angesetzt. Und wie die arbeiten, beschreibt Professor Philipp Slusallek, wissenschaftlicher Direktor des Deutsche Forschungszentrums für Künstliche Intelligenz so:

"Vor allem können wir damit auch KI-Systeme validieren. Wir können sozusagen gucken, was würde das System in bestimmten Situationen machen und können das abgleichen, ob das dem entspricht, was wir gerne haben und damit auch so etwas wie Vertrauen in KI entwickeln. Im Moment ist das ein großes Manko noch in der KI, dass wir diese Validierung noch nicht breit implementieren."

Kloiber: Das hört sicher aber nach durchaus intensiver Diskussion an, die da auf dem Digital-Gipfel zwischen Wissenschaftlern, Wirtschaftsvertretern und Politik geführt wurde.

Welchering: Tatsächlich sind Wissenschaftler auf dem diesjährigen Digital-Gipfel stärker als früher zu Wort gekommen. Zu einem richtigen Dialog zwischen Wissenschaft und Politik kam es allerdings nur selten. Und das wurde auch kritisiert, zum Beispiel von der Opposition im Deutschen Bundestag. In dem Fall von Anke Domscheit-Berg, Bundestagsabgeordnete der Fraktion Die Linke:

"Es gibt einen sehr ausgeprägten Dialog mit der Wirtschaft: Das sieht man auch hier. Das ist ein Spitzen-Gipfel zwischen den Spitzen der Politik und den Spitzen der Wirtschaft. Es gibt hier aber auch punktuell schon Wissenschaftler, die Sachen sagen dürfen, wenig. Aber was ich fast komplett vermisse auf diesem Gipfel ist die Zivilgesellschaft. Wie kann ich etwas am Gemeinwohl orientieren, wenn ich diejenigen, die das Gemeinwohl nutzen wollen für sich, nämlich die normalen Menschen, überhaupt nicht einbeziehe."

Kloiber: Da sind also von der Politik noch einige Hausaufgaben zu machen, die vor dem nächsten Digital-Gipfel erledigt sein sollten.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk