
Seit der Veröffentlichung von ChatGPT ist die künstliche Intelligenz (KI) zum Dauerthema geworden. Was KI kann – zum Beispiel selbständig Texte schreiben oder Bilder produzieren – wurde für viele erstmals erfahrbar. Und es ist klar, dass wir uns erst am Anfang einer Entwicklung befinden, die tiefgreifende Folgen für die Menschheit haben wird.
Doch welche sind das? KI bietet jede Menge Chancen – aber sie birgt auch eine Vielzahl von Risiken. Wird sie die Menschen eines Tages austricksen und beherrschen? Oder wird es gelingen, sie zu zähmen, einzuhegen, sie produktiv zu nutzen?
Der erste große Versuch, das zu tun, findet auf europäischer Ebene statt. Die Europäische Union will mit dem Artificial Intelligence Act (AIA) die Zukunft dieser Technologie in sichere Bahnen lenken. Das Gesetz wurde jetzt vom Europaparlament verabschiedet.
Was sind die Gefahren von künstlicher Intelligenz?
Niemand weiß genau, wie gefährlich der Einsatz von KI potenziell ist. Doch sie wird – zumindest von den meisten Expertinnen und Experten – als grundsätzlich sehr mächtig eingeschätzt. Positive wie auch negative Auswirkungen könnten demnach immens sein. Ende Mai beschrieben führende Experten die Gefahr durch KI in nur einem Satz: „Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“
Zu den Unterzeichnern der kurzen Stellungnahme gehörte auch OpenAI-Chef Sam Altman – jenes Unternehmens, das ChatGPT erfunden und damit den aktuellen KI-Hype maßgeblich ausgelöst hat. Die Stellungnahme wurde auf der Webseite des in San Francisco ansässigen Centers for AI Safety (Zentrum für KI-Sicherheit) publiziert. Die Non-Profit-Organisation nennt als mögliche Gefahren von künstlicher Intelligenz ihren Einsatz in der Kriegsführung und warnt vor der Verbreitung von Falschinformationen sowie vor einer Zukunft, in der die Menschheit komplett von Maschinen abhängig werden könnte.
Wenige Monate zuvor hatte es bereits eine ähnliche Warnung gegeben: ein offener Brief, in dem Tech-Milliardär Elon Musk und zahlreiche weitere Experten eine
Pause bei der Entwicklung von besonders fortgeschrittener künstlicher Intelligenz gefordert
hatten.
Mit deutlichen Worten hat auch der Technologie-Berater des britischen Premierministers Rishi Sunak vor den Gefahren durch künstliche Intelligenz gewarnt: Matt Clifford sprach ganz konkret davon, dass viele Menschen durch den Einsatz von KI getötet werden könnten. KI müsse so bald wie möglich global reguliert werden, forderte Clifford in einem Interview. Doch derzeit sei noch nicht einmal klar, wie KI-Modelle überhaupt kontrolliert werden könnten.
Terrorismus, Waffenproduktion, Manipulation von Wahlen: Die Ängste vor dem missbräuchlichen Einsatz von KI sind groß. Hinzu kommt die Sorge, die Kontrolle über sie zu verlieren. Der KI-Experte Daniel Privitera warnt vor immer besseren und stärkeren KI-Modellen, die bereits teilweise selbstständig strategisch handelten und Menschen täuschen könnten.
Zugleich seien diese KI-Modelle „Blackboxes“: „Niemand versteht, was eigentlich in denen vor sich geht. Auch OpenAI selbst versteht das nicht. Und wenn man so etwas nicht versteht, dann kann man es natürlich auch nicht verlässlich kontrollieren und steuern“, so Privitera.
"Ich finde auch die Idee beunruhigend, dass KI zum Beispiel unsere Gedanken lesen kann", sagt
Alexandra Geese
, Digitalexpertin der Grünen im Europaparlament. Es gebe bereits Technologie, die über Gehirnscans zeigen könne, "was wir uns vorgestellt haben, welche Bilder wir gesehen haben". Das rühre "an unserem Grundkonzept der freien Gesellschaft".
Ebenfalls sehr beunruhigend sei die potenzielle Auflösung der Realität, zum Beispiel durch Deepfakes. „Unsere Art und Weise zu prüfen, ob eine Information wahr oder nicht wahr ist, wird so kompliziert, dass sie eigentlich von normalen Menschen gar nicht mehr zu leisten ist", sagt Geese. Ergebnis wäre eine Welt, in der man zwischen Wahrheit und Lüge nicht mehr unterscheiden kann.
Was sieht der AI Act der Europäischen Union vor?
Vorreiter weltweit bei der Regulierung von KI ist derzeit die Europäische Union. Sie hat längere Zeit an einem entsprechenden Gesetzesvorhaben, dem Artificial Intelligence Act (AIA), gearbeitet. Das gestaltete sich teils schwierig, weil die technologische Entwicklung rasant ist und Diskussionsprozesse manchmal schlicht überholte.
Nun wurde der AI Act aber vom Europaparlament angenommen. Der Text muss nun im sogenannten Trilog mit der EU-Kommission und den Mitgliedsstaaten abgestimmt werden, bevor er offiziell in Kraft tritt. Bis zum Jahresende soll eine Einigung gefunden werden. Anschließend haben die Unternehmen zwei Jahre Zeit, um sich an die veränderten Rahmenbedingungen anzupassen.
Der AI Act stuft KI-Anwendungen in bestimmte Risikoklassen ein, an denen sich der Umfang der gesetzlichen Auflagen orientiert. Das Gesetz soll für alle gelten, die ein Produkt oder eine Dienstleistung auf KI-Basis anbieten. Es deckt Anwendungen ab, die Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung von Nutzern beeinflussen. Dabei stehen nicht nur kommerzielle Angebote, sondern auch die Nutzung von KI im öffentlichen Sektor wie zum Beispiel bei der Strafverfolgung im Fokus.
Vor allem KI-Programme, die bei kritischer Infrastruktur oder der Strafverfolgung zum Einsatz kommen, gelten als hoch riskant. Anders als "inakzeptable" Programme werden sie aber nicht verboten, sondern müssen hohe Auflagen erfüllen. Andere Anwendungen, die mit hohen Risiken für die Sicherheit von Menschen verbunden sind, sollen verboten oder zumindest stark eingeschränkt werden. "Gesichtserkennung zur Überwachung kennen wir aus China, diese Anwendung von Technologie hat in einer liberalen Demokratie nichts zu suchen", sagt die deutsche EU-Abgeordnete Svenja Hahn (FDP).
Auch KI-Anwendungen, die der Manipulation von Menschen dienen oder sie nach ihrem sozialen Status klassifizieren, sollen nach dem Verordnungsentwurf des Parlaments nicht erlaubt sein. Gleiches gilt für eine Auswertung biometrischer Daten nach Geschlecht, Volkszugehörigkeit oder Hautfarbe. Auch das Sammeln biometrischer Daten in Online-Netzwerken oder von Überwachungskameras soll tabu bleiben.
Welche weiteren Vorschläge gibt es, um KI zu regulieren?
OpenAI-Chef Sam Altman hat eine Aufsichtsbehörde nach dem Vorbild der Internationalen Atomenergiebehörde für die neue Technologie vorgeschlagen. Auch UN-Generalsekretär António Guterres sprach sich kürzlich für die Einrichtung einer Regulierungsbehörde aus.
Die G7 hatten sich bei ihrem jüngsten Gipfeltreffen in Japan darauf verständigt, eine gemeinsame Strategie zur Regulierung von KI in Angriff zu nehmen. Die britische Regierung will ein Gipfeltreffen zu Chancen und Risiken der Technologie im Herbst abhalten.
Die USA und die EU diskutieren bereits über einen freiwilligen KI-Verhaltenskodex. Die Entwickler künstlicher Intelligenz sollen binnen Monaten zu einer freiwilligen Selbstkontrolle verpflichtet werden. Damit könne Zeit gewonnen werden, bis gesetzliche Regeln griffen, sagt EU-Technologiekommissarin Margrethe Vestager. Der AI Act der EU werde inklusive Übergangsfristen frühestens in zweieinhalb bis drei Jahren greifen. "Das ist offensichtlich zu spät. Wir müssen jetzt handeln."
Der Digitalexperte Daniel Privitera sieht ebenfalls Eile geboten. Eine Lücke zwischen „dem Tempo des technologischen Fortschritts und unserer demokratisch legitimierten Kontrolle können wir uns nicht erlauben. Ich glaube, das kann wirklich katastrophal schieflaufen.“
„Der Geist ist aus der Flasche und lässt sich wahrscheinlich auch nicht mehr zurückdrängen“, sagt Ayad Al-Ani vom Berliner Einstein Center für digitale Zukunft. Er glaubt, dass die Menschheit erst ganz am Anfang einer Debatte darüber steht, wie man KI regulieren kann.
Al-Ani erwartet ein „Hochschaukeln“ von technologischem Fortschritt und seiner Einhegung durch gesetzliche Vorschriften: Neue KI-Anwendungen werden seiner Prognose zufolge Regulierungsversuche nach sich ziehen, die dann dazu führen, dass KI-Entwickler in andere Bereiche ausweichen, die dann ebenfalls nachreguliert werden.
Die KI-Expertin Kenza Ait Si Abbou meint hingegen, dass es technisch durchaus möglich wäre, der KI den Stecker zu ziehen und einfach den Ausknopf zu drücken, sollte klarwerden, dass die Risiken zu groß werden. Doch dafür müsse es dann auch einen weltweiten Konsens geben, betont sie.
ahe, dpa, rtr, afp, ap