Sonntag, 28. April 2024

Deepfakes
Mediale Glaubwürdigkeit in Gefahr

In einem Video wirbt ZDF-Moderator Christian Sievers für eine betrügerische Cybertradingplattform - ein Deepfake, der zeigt, wie ausgereift die Technologie mittlerweile ist. Und wie problematisch. Deepfake-Forscherin Maria Pawelec fordert deshalb Maßnahmen von Politik, Plattformen - und dem Publikum.

Maria Pawelec im Gespräch mit Sebastian Wellendorf | 21.09.2023
Fotomontage von einem Gehirn, das auf einer Computertastatur zwischen den Buchstaben K und I liegt.
Deepfakes werden immer überzeugender - und einfacher zugänglich. (IMAGO / Christian Ohde / IMAGO / Christian Ohde)
Nachrichtenmoderator Christian Sievers macht in einer ZDF-Nachrichtensendung Werbung für eine Cybertrading-Plattform. Klingt nach einem Skandal und wäre es auch – ist aber alles nur fake. Aber ein sehr guter. „Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich… Echt nicht“, schreibt Sievers auf X, vormals Twitter, zu dem Video.

KI-Modelle öffentlich zugänglich

Deepfakes wie diese kann man mittlerweile ohne große Programmierkenntnisse erstellen, sagt Maria Pawelec vom Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. „Solche KI-Modelle sind häufig öffentlich zugänglich. Die werden auf Plattformen wie Github geteilt und auch ständig verbessert. Deshalb haben auch Laien darauf Zugriff und können es nutzen.“
Einige Verwendungen von Deepfakes sind von der Meinungs- und Kunstfreiheit gedeckt. Das mit KI erstellte Video von Sievers gehöre allerdings nicht dazu - es diene einer kriminellen Betrugsmasche und sei damit strafbar. Damit könne der ZDF-Nachrichtenmoderator rechtlich gegen die Urhebenden vorgehen - genau wie alle anderen Opfer von nicht einvernehmlichen Deepfakes.

Verfolgung von Urhebern schwierig

Praktisch ist die strafrechtliche Verfolgung von Urhebern solche Fake-Videos allerdings nicht einfach, erklärt Pawelec: "Die Urheber agieren oft anonym und über Ländergrenzen hinweg. Es ist deshalb sehr schwierig, sie zur Verantwortung zu ziehen."

Problem für mediale Glaubwürdigkeit und Journalismus

Darüber hinaus sind Deepfakes auch ein Problem für die mediale Glaubwürdigkeit und den Journalismus, so Pawelec im Gespräch mit @mediasres:
"Weil wir eben sogar Video– und Audioaufnahmen, die bisher sehr schwer zu fälschen waren und oft als handfeste Beweise galten, immer weniger trauen können. Das führt auch dazu, dass Journalistinnen und Journalisten viel mehr Zeit und Ressourcen in die Validierung von Audio- und Videospuren stecken müssen - und häufig fehlen auch die technischen Möglichkeiten, um überprüfen zu können, ob etwas ein Deepfake ist oder nicht. Und wenn sie dann einem Deepfake auf den Leim gehen, dann verzerrt das entweder den politischen Diskurs oder wenn es später aufgedeckt wird, dann schwächt es das Vertrauen der Menschen in die mediale Berichterstattung."

Forscherin fordert Maßnahmen von Politik und Plattformen

Eine "Infokalypse" sieht die KI-Forscherin allerdings nicht auf unsere Gesellschaft zukommen. Dennoch sieht sie die Entwicklung um Deepfakes mit Sorge und fordert Maßnahmen von Politik und Plattformen - zum Beispiel stärkere gesetzliche Regulierungen, mehr Plattformselbstverantwortung und bessere Analyse-Tools. Aber auch die Nutzerinnen und Nutzer sind gefragt.
„Was wir brauchen ist eine gesunde Skepsis und der Einsatz des Verstandes, wenn wir online Videos sehen, in denen jemand etwas sagt oder tut, was nicht dem Charakter oder dem Erwarteten entspricht.“ So etwas sollte man nicht unüberlegt teilen, sondern hinterfragen und mehrere Quellen prüfen.