Künstliche Intelligenz
Tagesschau warnt vor gefälschten Audiodateien

Die ARD-Tagesschau hat vor gefälschten Audio-Dateien gewarnt, die zurzeit im Netz und auf Demonstrationen kursieren. Diese seien mit Hilfe von Künstlicher Intelligenz (KI) gefälscht worden und erweckten den Eindruck, die Redaktion entschuldige sich für Lügen in ihrer Berichterstattung.

13.11.2023
    Ein Mann hält eine Fernbedienung vor einen Fernseher, auf dem die Tagesschau läuft.
    Die Tagesschau warnt vor gefälschten Audio-Dateien. (picture alliance / dpa / Marius Becker)
    In einer der falschen Dateien heiße es zum Beispiel: "Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht." Nach der Erkennungsmelodie der Nachrichtensendung seien die Stimmen der Tagesschau-Sprecher Susanne Daubner oder Jens Riewa zu hören.
    Insgesamt kursierten drei Audio-Dateien mit angeblichen Entschuldigungen für "bewusste Manipulation" und "Lügen" in der Berichterstattung. Thematisch gehe es um den Krieg in der Ukraine, um Demonstrationen und die Corona-Pandemie. So habe die Tagesschau etwa gelogen, als sie "anständige Bürger aus der Mitte der Gesellschaft als Rechtsextreme, Reichsbürger oder Corona-Leugner denunziert" habe. Außerdem lüge man zum Krieg in der Ukraine, "um allein Putin die Schuld an der Eskalation in die Schuhe schieben zu können" und habe wider besseres Wissen Lügen über Covid-19-Impfungen verbreitet.

    Für sich selbst die Plausibilität des Inhalts überprüfen

    In allen drei Audio-Dateien heißt es laut ARD: "Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen."
    Marcus Bornheim, Chefredakteur von ARD-aktuell, erklärte dazu, die gezielten Desinformationen mit den darin enthaltenen Positionen seien geeignet, die freiheitlich-demokratische Grundordnung zu beschädigen. Zum Glück könne man die KI-generierten Dateien aber relativ einfach als Fake-News entlarven. So klängen die Stimmen mechanisch, einige Betonungen der Wörter seien falsch und die Sprachmelodie unterscheide sich von jener der echten Sprecher.
    So einfach wie bei diesen Beispielen sei es jedoch häufig nicht mehr, echte von falschen Audio-Dateien zu unterscheiden, warnte Andreas Dengel vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Daher müssten Menschen vor allem die Plausibilität des Inhalts überprüfen. "Dass ein Nachrichtensender solche Audios veröffentlicht, ist sehr unrealistisch." Allerdings hänge es auch stark davon ab, wer solche Fake-News zu hören bekomme. Je besser eine Nachricht ins bestehende Weltbild von Menschen passt, desto eher werde sie auch geglaubt, so Dengel.
    Diese Nachricht wurde am 13.11.2023 im Programm Deutschlandfunk gesendet.