Donnerstag, 11. August 2022

Falscher Klitschko
Wie schnell wir zu täuschen sind

Berlins regierende Bürgermeisterin Franziska Giffey brach eine geplante Videokonferenz mit dem Kiewer Bürgermeister Vitali Klitschko ab. Wie sich herausstellte: Sie und weitere europäische Bürgermeister sind auf einen Betrug hereingefallen. Warum es kein Deepfake braucht, um die Öffentlichkeit zu täuschen.

Text: Anh Tran | Daniel Laufer im Gespräch mit Pia Behme | 27.06.2022

Auf einem Bildschirm sieht man links Berlins regierende Bürgermeisterin Franziska Giffey und rechts Vitali Klitschko, Bürgermeister von Kiew. Sein Bild stammt allerdings aus einem älteren Interview.
Berlins Bürgermeisterin telefonierte mit einem falschen Vitali Klitschko (Quelle: Senatskanzlei Berlin)
Es sollte ein Gespräch zwischen zwei Stadtoberhäuptern werden. "Der vermeintliche Herr Klitschko hat gefragt, wie es uns mit den vielen ukrainischen Flüchtlingen geht, wie wir damit umgehen, wie die Zahlen sind", heißt es aus der Berliner Senatskanzlei. So weit, so normal. Doch die Aussagen aus Kiew irritieren im Laufe des Gesprächs zunehmend: "Er hat gefragt, ob wir Kiew beratend unterstützen könnten, eine Art CSD (Christopher Street Day) auszurichten. Das war angesichts des Krieges schon mehr als seltsam." Nach dieser Aussage ist Schluss - die Verbindung getrennt oder abgebrochen. Es stellt sich heraus: Franziska Giffey - und mit ihr weitere Bürgermeister aus Europa - sind einem Betrug auf den Leim gegangen.

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Giffey hat sich gegenüber dem Rundfunk Berlin-Brandenburg zu der Videokonferenz mit dem falschen Klitschko geäußert:

Es ist so, dass Sie nicht unterscheiden können. Selbst Profis können das nicht unterscheiden, ob sie mit der echten Person sprechen oder mit einem Fake.

Franziska Giffey, regierende Bürgermeisterin von Berlin

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Melnyk warnt vor "hybriden Kriegsführung Russlands"

Aus der Senatskanzlei hieß es nach dem Telefonat mit dem Betrüger: Es handle sich allem Anschein nach um ein Deepfake. In Berlin ermittelt mittlerweile der Staatsschutz. Der ukrainische Botschafter in Deutschland, Andrij Melnyk, warnt im Gespräch mit der Welt am Sonntag:

Dass offenbar auch andere Bürgermeister in Europa Opfer dieser Betrugsmasche wurden, zeigt, dass Deep Fakes als Teil der hybriden Kriegsführung Russlands viel ernster genommen werden müssen.

Andrij Melnyk, ukrainischer Botschafter in Deutschland
Ein Deepfake funktioniert so, dass ein Computer anhand von Basismaterial mit Daten gefüttert wird und diese nutzt, um neue Daten zu erzeugen. Damit kann der Computer beispielsweise Stimme oder Bildmaterial von echten Personen simulieren.

Indizien sprechen gegen einen Deepfake

Doch es gibt Anhaltspunkte, die gegen die Deepfake-Theorie sprechen. Investigativjournalist Daniel Laufer hat Standbilder des Videotelefonats der Senatskanzlei analysiert:

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Zwar sei noch nicht abschließend klar, ob es sich um ein Deepfake handelt oder nicht, sagt Laufer im Interview mit dem Deutschlandfunk, aber beim Vergleich des Bildmaterials sei ihm aufgefallen: "Das Interessante, an diesen Fotos ist, dass sie bis ins Details übereinstimmen zu scheinen, mit einem Interview, das Klitschko bereits Anfang April gegeben hat." Es sei komplett offen, worin die Leistung des Deepfakes hätte bestehen sollen.
Allerdings sei wahrscheinlich, dass die Tonspur manipuliert wurde, denn sowohl Franziska Giffey als auch eine weitere Person im Raum verstehen Russisch. "Es war also nicht so, dass dieser Fake nur möglich war, weil niemand verstanden hat, was da gesagt wurde und dann auf die Übersetzung angewiesen war, sondern so, dass man das in irgendeiner Form einkalkuliert haben muss - gut vorbereitet war", erklärt Laufer.
So ist der erste Kontakt zum Berliner Rathaus wohl über eine inoffizielle, falsche E-Mail-Adresse zustande gekommen. Klitschko selbst hat sich mittlerweile geäußert und betont: Offizielle Gespräche könne es nur über offizielle Kanäle aus Kiew geben.

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Laufer erklärt dagegen, dass es durchaus vorkomme, dass ukrainische Offizielle nicht nur über offizielle Kanäle kommunizieren.

Täuschen ohne Künstliche Intelligenz

Bereits vor dem russischen Angriffskrieg gegen die Ukraine sind Politiker auf Falschinformationen hereingefallen - ganz ohne komplizierten Algorithmus. So hat ein Mann im vergangenen Jahr zahlreiche Politiker aus verschiedenen europäischen Ländern betrogen, indem er sich als Leonid Wolkow, Stabschef des russischen Oppositionellen Alexey Nawalny, ausgab. Auch hier war zuerst die Rede von einem Deepfake.
Seit Kriegsbeginn entlarven Faktencheck-Redaktionen regelmäßig Desinformationen. Dabei helfen ihnen Satellitenbilder, Metadaten oder Bilder-Rückwärtssuchen. Wer Orientierung sucht, findet beispielsweise von Correctiv eine ständig aktualisierte Übersicht zu Faktenchecks rund um den Russland-Ukraine-Krieg.

Wie erkenne ich Deepfakes?

Das Bundesamt für Sicherheit in der Informationstechnik, kurz BSI, warnt davor, dass Erkenntnisse aus dem Bereich Künstliche Intelligenz Fälschungen heutzutage einfacher möglich machen, "mit vergleichsweise wenig Aufwand und Expertise in einer hohen Qualität". Wie einfach ein Deepfake funktioniert, zeigen diese Videos von einem künstlich erstellten Ex-US-Präsidenten Barack Obama:

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Redaktionell empfohlener externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige jederzeit wieder deaktivieren.

Eine zentrale Maßnahme gegen Deepfake-Angriffe stellt dem BSI zufolge die Schulung potentieller betroffener Personen dar, wie beispielsweise Politikerinnen und Politiker. Auch im Fall des falschen Klitschkos hätte es Tricks gegeben, um den Betrug auffliegen zu lassen. Beispielsweise etwas Unerwartetes vom Gegenüber verlangen, wie "sich drei Finger vor das Gesicht zu halten", erklärt Daniel Laufer. Auch das BSI gibt Tipps, wie jeder Mensch Deepfakes erkennen kann:
  • Unscharfe Gesichtskonturen
  • Sichtbare Übergänge bei zusammengesetzten Gesichtern
  • Begrenzte Mimik, unlogische Belichtung, wenn z.B. Schatten fehlen
  • Metallischer Sound
  • Falsche Aussprache, z.B. bei Fremdwörtern
  • Monotone Sprechweise, die Klangfarbe kann zwar relativ gut imitiert werden, Betonungen dagegen nicht
  • Schlechtes Timing durch hohe Verzögerungen