"Sora"
KI-Fortschritte bei Erstellung von Videos - Experten sehen auch Chancen für Politik und Meinungsbildung

Die Entwicklung und Verbreitung von KI-Technologien zur Erstellung von Bildern und Videos hat nach Einschätzung einiger Experten das Potenzial, die Landschaft der öffentlichen Meinungsbildung und den Informationsfluss online signifikant zu verändern.

    3D-auflösender menschlicher Kopf aus würfelförmigen Partikeln
    "Ermächtigung durch KI-Nutzung" statt "Vermittlung von Angst und Überforderung". (Getty Images / imaginima)
    Diese Technologien ermöglichten die Produktion hochrealistischer Inhalte, erklärt Edda Humprecht von der Uni Jena. Diese Inhalte seien dann kaum von authentischen zu unterscheiden. Das erhöhe die Gefahr von Desinformation und manipulierten Nachrichten. Falsche Narrative könnten verstärkt und politische Gegner in schlechtes Licht gerückt werden.
    Nach Ansicht von Sabrina Heike Kessler von der Uni Zürich kann es problematisch werden, wenn Nutzer wiederholt mit Falschinformationen konfrontiert sind. Das gelte besonders in unsicheren Zeiten wie Krisen oder Kriege, sagt sie. Zudem könnten falsche Informationen besonders auf Personen Einfluss haben, die ihre vorhandenen inkorrekten Ansichten bestätigt sehen möchten.

    "Noch weit von der Perfektion entfernt"

    Allerdings sind die Systeme "noch weit von der Perfektion" entfernt, wie Björn Ommer von der Uni München betont. Auch andere Experten halten es noch für zu früh, um Aussagen über mögliche Einflüsse auf das Wahlverhalten zu treffen. Christian Hoffmann, Uni Leipzig, führt aus, bisher seien qualitativ hochwertige Manipulationen an Videos oder Audiomitschnitten ("Deepfakes") im Kontext von Politik noch sehr selten. In der Regel werde so etwas im öffentlichen Diskurs schnell offenbar.
    Schwieriger wird das nach Darstellungen Hoffmanns dann, wenn Politikern zum Beispiel Worte in den Mund gelegt werden, die sie tatsächlich hätten sagen können. Bei sehr wenig plausiblen oder bei überraschenden Aussagen indes werde das Publikum schnell skeptisch. In Experimenten wirkten Deepfakes daher auf Teilnehmer eher verunsichernd als überzeugend.

    "Herbeifantasierte Phänomene"

    Deutliche Worte findet der Bamberger Politikwissenschaftler Andreas Jungherr. Er spricht von "herbeifantasierten Phänomenen auf Basis anekdotischer Evidenz oder mit bestenfalls marginaler Wirkung – wie Wahlbetrug durch KI-generierter Desinformation."
    Ende vergangener Woche hat das US-Unternehmen "OpenAI" mit "Sora" seine neueste KI vorgestellt. Sie kann aus einem schriftlich formulierten Auftrag, Videos erstellen. "OpenAI" ist durch das Programm ChatGPT bekannt geworden, das eigenständig Texte auf Anfrage von Nutzern herstellen kann.

    "Ohne umfangreiche Ressourcen oder Fachkenntnisse hochwertiges Videomaterial produzieren"

    Anwendungen wie "Sora" bergen zwar ein großes Missbrauchspotenzial. Sie bieten allerdings auch in vielen Anwendungen Zeitersparnisse. Kessler zufolge können Menschen damit ohne umfangreiche Ressourcen oder Fachkenntnisse hochwertiges Videomaterial produzieren. Komplexe politische oder wissenschaftliche Inhalte ließen sich so auf einfache und anschauliche Weise vermitteln. Derselbe Videoinhalt könne für verschiedene Zielgruppen aufgearbeitet werden, um auch Politikverdrossene oder wissenschaftsferne Zielgruppen zu erreichen.
    Um Menschen für den Umgang mit KI fit zu machen, raten die Experten zu Aufklärung und Sensibilisierung. Grundsätzlich sollte man in der Gesellschaft die Kompetenzen breit vermitteln, sagt Andreas Jungherr. Der Fokus dabei müsse auf der "Ermächtigung durch KI-Nutzung" liegen, nicht auf der "Vermittlung von Angst und Überforderung".
    Diese Nachricht wurde am 24.02.2024 im Programm Deutschlandfunk gesendet.