Mittwoch, 24. April 2024

Archiv

EU-Verordnung für Künstliche Intelligenz
Neue Regeln zum Schutz der Menschen

Chatbots, die so tun, als wären sie eine echte Person. Solche und ähnliche Systeme mit Künstlicher Intelligenz sollen nach dem Willen der Europäischen Kommission in Zukunft stärker reguliert werden. Das sieht der Entwurf einer neuen EU-Verordnung vor.

Piotr Heller im Gespräch mit Sophie Stigler | 21.04.2021
Ein humanoider Roboter steht vor einer Schultafel. Er zeigt mit dem Finger auf den Schriftzug "Artificial Intelligence (AI)".
Die EU-Kommission will Künstliche Intelligenz stärker regulieren (imago images / Alexander Limbach)

Beispiele für den Einsatz Künstlicher Intelligenzen (KI)

Maschinelles Lernen wird etwa genutzt, um Persönlichkeitsprofile von Internetnutzern anzulegen, sodass ihnen dann personalisierte Werbung angezeigt werden kann. Oder wenn man auf der Internetseite seiner Versicherung mit einem Kundenberater chattet, kann es sein, dass man erstmal mit einer KI schreibt. Google bietet in Amerika einen spannenden Dienst an, den man auf seinem Handy aktivieren kann: Wenn jemand anruft, dann geht eine KI von Goolge ran und spricht mit der Person, findet heraus, was sie will, und zeigt das dem Handybesitzer an. Und der Mensch kann dann entscheiden, ob er selbst rangeht, oder ob die KI den Anrufer abwimmeln soll.

Kann man KIs von echten Menschen unterscheiden?

Es gibt bereits Systeme, bei denen man es nicht mehr auf Anhieb merkt. Noch ein Beispiel von Google: Die haben in den USA eine Art KI-Assistenz vorgestellt, die automatisch Termine vereinbart. Bei einer Präsentation wurde gezeigt, wie diese KI bei einer Friseurin anruft. Dabei hat die KI wie ein Mensch gesprochen, Pausen gemacht und auch "mhm" gesagt. Das ist unangenehm, weil es die Friseurin hinters Licht geführt hat. So etwas will die Kommission nicht und schreibt vor: Solche Systeme müssen klipp und klar machen: Ich bin kein Mensch!

Das heißt, beim Chat steht dann irgendwo ein Hinweis?

Das ist nicht vorgegeben, aber ja, das wäre ein Weg. Diese Transparenz ist eigentlich ein Seitenaspekt. In der Verordnung geht es vor allem um Systeme, die die Kommission gleich ganz verbieten will. Da gibt es drei Felder:
  • Erstens: Bewertung. Automatische Systeme, die etwa Daten über das Sozialverhalten und die Persönlichkeit verwenden und daraus berechnen, wie vertrauenswürdig jemand ist, um das in einem anderen Kontext zu nutzen. Das ist zum Beispiel für Banken interessant, wenn sie Kredite vergeben. So etwas soll verboten werden.
  • Zweitens: Gesichtserkennung - bis auf einige streng geregelte Ausnahmen.
  • Drittens: Manipulation - unterschwellige Systeme, die Informationen über die Schwächen vom Menschen ausnutzen, um sie von etwas zu überzeugen oder irgendwie das Verhalten zu beeinflussen.

Was bedeutet "das Verhalten beeinflussen"?

Das schränkt die EU ein: Diese Beeinflussung muss den Internetnutzern oder jemand anderem schaden, um verboten zu werden. Aber da gibt es Interpretationsspielraum. Das ist ein Punkt, den Experten kritisieren: Die Regeln sind hier und da vielleicht zu grob und unpräzise gefasst. Was viele aber loben ist, dass die EU die Sache überhaupt angeht. Heute haben einige wenige Großkonzerne die Entwicklung der KI finanziell in der Hand. Gleichzeitig gibt es kaum Regulierung von KI, also können die Konzerne entscheiden, wohin die Reise geht. Und die EU hat jetzt ein erstes Mittel, diese Entwicklung in die richtige Richtung zu lenken.

Was ist die richtige Richtung?

Das ist die große Frage. Klar, die Entscheidung, Überwachungs- und Manipulationsmaschinen zu verbieten, ist noch relativ einfach. Kompliziert wird es bei an sich wünschenswerter Technologie. Bei der EU kristallisiert sich seit Jahren ein Ansatz heraus, der auf Risiken abzielt: KI-Anwendungen, die große Risiken bergen, sollen reguliert werden. Das sind etwa Systeme zur Steuerung von kritischer Infrastruktur wie der Stromversorgung, Polizeisysteme, Programme, die Bewerber für einen Job auswählen oder juristische Fragen klären, und so weiter.

Was schreibt die EU dazu vor?

Solche Systeme sollen von Menschen überwacht werden. Die Mitgliedstaaten sollen offizielle Stellen benennen, die die risikoreichen Anwendungen beurteilen. Sie sollen in einer Datenbank auftauchen. Das ist aber nicht unbedingt KI-spezifisch, so etwas kann man sich auch für andere Technologien vorstellen. Interessant ist: Die Daten, aus denen die KI-Systeme lernen, sollen darauf überprüft werden, ob sie mit Vorurteilen behaftet sind. Das ist komplex.

Warum ist das so schwierig?

Wir können uns ja mal ein Beispiel anschauen. Über das hat Reuters mal berichtet. Da soll Amazon ein System entwickelt haben, das Bewerber vorsortiert. Irgendwann sei aufgefallen, dass es Männer bevorzugt. Das Ding ist aber: Es kannte das Geschlecht der Bewerber gar nicht! Angeblich hatte es gelernt, Hinweise auf das Geschlecht zu interpretieren. Etwa eine reine Mädchenschule im Lebenslauf. Aber warum bewertete es die Bewerberinnen schlechter? Weil es – so steht es in dem Bericht – mit alten Daten gelernt hatte, aus einer Zeit, in der in der Tech-Industrie kaum Frauen eingestellt wurden. Da sieht man, wie problematisch die EU-Verordnung ist: Klar im Nachhinein sehen wir, wo die Daten vorurteilsbehaftet waren. Aber hätte man es vorhersehen können?

In der Verordnung werden Dinge verlangt, die noch unmöglich sind?

Sie fordert zumindest einen sehr kritischen Umgang mit den Daten. Jetzt muss man sehen, wie die Unternehmen es hinbekommen, dem gerecht zu werden.