Dienstag, 21. Mai 2024

Künstliche Intelligenz
Forscher schlagen externe und standardisierte Verfahren zur Überprüfung systemischer Risiken vor

Wissenschaftler aus Mannheim haben standardisierte Methoden zur Prüfung von systemischen Risiken von Künstlicher Intelligenz angemahnt.

24.04.2024
    Ein Smartphone mit geöffneter ChatGPT-App und im Hintergund das Logo des Unternehmens OpenAI
    Forscher fordern Standards zu Risikobewertung künstlicher Intelligenz. (NurPhoto / imago / Jakub Porzycki)
    Eine Forschungsgruppe des ZEW Mannheim hat dazu ein Verfahren entwickelt, das definierte Ziele, abgegrenzte Rollen sowie Anreiz- und Koordinierungssysteme für alle Beteiligten vorschlägt. Nur so seien verlässliche Prüfergebnisse zu erwarten. Um Interessenkonflikte zu vermeiden, sollte die Prüfung durch unabhängige Dritte durchgeführt werden, heißt es. Es könne ein spezialisierter Markt für KI-Sicherheitstests entstehen.
    Den Angaben zufolge sieht eine EU-Verordnung vor, KI-Modelle durch sogenanntes "Adversarial Testing" systematisch auf Schwachstellen zu prüfen. Dabei handele es sich um Stresstests, die darauf ausgelegt seien, die KI-Modelle durch wiederholte Interaktion zu unerwünschtem Verhalten zu provozieren.
    Die ZEW Wissenschaftler raten zu dem sogenannten "Red Teaming". Hier würden zusätzlich verschiedene Arten von Angriffen durchgeführt. Ähnlich wie bei einer externen Rechnungsprüfung sollten darauf spezialisierte Unternehmen beauftragt werden, um die Tests durchzuführen. Die Kosten dafür sollten die KI-Entwicklungshäuser tragen. Je weniger Fehlverhalten gefunden werde, desto günstiger werde auch der Prüfprozess.
    Diese Nachricht wurde am 24.04.2024 im Programm Deutschlandfunk gesendet.