
Ob Günther Jauch, Eckart von Hirschhausen oder Barbara Schöneberger: Immer öfter kursieren im Netz Werbevideos, in denen Prominente angeblich für Wunderpillen, Finanzprodukte oder andere dubiose Angebote werben. Tatsächlich sind es Deepfakes, also KI-Fälschungen, bei denen Gesicht, Stimme oder Auftreten einer Person täuschend echt nachgeahmt werden. Betrüger nutzen so bekannte Gesichter und Stimmen, um Vertrauen zu erzeugen und damit Menschen zum Klicken, Kaufen oder Investieren zu bringen.
Wie funktioniert Betrug mit Promi-Deepfakes?
Betrüger lassen Prominente mithilfe von KI scheinbar Produkte empfehlen, indem sie deren Gesicht, Stimme oder Auftreten fälschen. Laut Verbraucherzentrale werden solche Promi-Deepfakes besonders häufig für Finanzangebote wie Krypto-Investments, Trading-Plattformen oder falsche Börsentipps eingesetzt, aber auch für Gesundheits- und Lifestyle-Produkte wie Diätpillen, Nahrungsergänzungsmittel, Anti-Aging-Produkte oder fragwürdige Heilversprechen.
Die Clips führen meist auf dubiose Webseiten, Fake-Shops oder angebliche Anlageplattformen. Oft wirken sie professionell - mit Logos, Bewertungen oder vermeintlichen Presseberichten. Wer dort dann aber Daten eingibt, etwas bestellt oder Geld einzahlt, riskiert Datenmissbrauch, betrügerische Anrufe oder finanzielle Verluste.
Die Politikwissenschaftlerin Maria Pawelec, die zu Deepfakes forscht, erklärt das am Beispiel eines gefälschten Clips von Christian Sievers, Moderator des ZDF-„heute journal“: Vermutlich wurde dafür aus vorhandenen Audioaufnahmen eine neue Tonspur erzeugt. Häufig kämen dabei sogenannte Generative Adversarial Networks zum Einsatz - KI-Systeme, bei denen ein künstliches neuronales Netz die Fälschung erzeugt und ein zweites prüft, ob sie echt wirkt. So werde der Fake Schritt für Schritt verbessert, bis er kaum noch als Fälschung zu erkennen ist.
Die Masche funktioniert, weil Betrüger auf Menschen setzen, denen viele vertrauen - meist Persönlichkeiten, die aus den Medien bekannt sind oder renommierte Ärztinnen und Ärzte. So ist etwa der Mediziner und Moderator Eckart von Hirschhausen bereits wiederholt Opfer solcher Deepfakes geworden. Im Finanzbereich tauchen außerdem gefälschte Anlagetipps von bekannten Politikerinnen und Politikern oder Prominenten auf, zum Beispiel von Bundeskanzler Friedrich Merz (CDU) oder RTL-Moderator Günther Jauch.
Wer steckt hinter Deepfake-Werbung?
Hinter Deepfake-Werbung stehen nach Einschätzung des Oberstaatsanwalts Nino Goldbeck von der Zentralstelle Cybercrime Bayern häufig professionelle Betrugsnetzwerke. Die Täter operieren anonym und in vielen Fällen über Landesgrenzen hinweg. Oft säßen die Anbieter im Ausland, sagt Eckart von Hirschhausen. Das mache es schwer, juristisch gegen sie vorzugehen.
Die gefälschten Inhalte tauchen laut Verbraucherzentrale nicht nur in klassischer Online-Werbung auf. Sie verbreiten sich auch über soziale Netzwerke, Messenger-Dienste und Videoplattformen wie TikTok, YouTube oder Telegram.
Geschädigte wie von Hirschhausen sehen deshalb auch Konzerne wie Meta in der Verantwortung. „Wenn jemand Geld macht mit Inhalten, dann sollte er auch haften müssen, wenn diese Inhalte nicht stimmen oder sogar Menschen schaden“, sagt von Hirschhausen. Er hat den Facebook-Mutterkonzern verklagt – mit Erfolg: Ende März 2025 entschied das Oberlandesgericht Frankfurt am Main, dass Meta nach einer ersten Abmahnung auch sinngleiche Deepfake-Videos selbstständig löschen muss.
Trotzdem bleibt das Problem bestehen, weil die Fakes teils sogar auf seriös wirkenden Nachrichtenseiten verbreitet werden. Goldbeck erklärt, dass Kriminelle ihre Strategie außerdem anpassen würden. Wenn eine Plattform stärker kontrolliert werde, suchten sie sich Alternativen. „Und dann muss man dort mehr oder weniger bei Null erneut beginnen”, so Goldbeck.
Welche Folgen haben Promi-Deepfakes für Verbraucher?
Für Verbraucherinnen und Verbraucher können Promi-Deepfakes teuer werden, etwa wenn sie auf angeblich lukrative Anlageplattformen investieren oder bei einem Fake-Shop landen.
Die Verbraucherzentrale warnt: Wer sich auf den vermeintlichen Shop-Seiten registriert oder etwas bestellt, riskiert zum Beispiel, dass keine Ware geliefert wird, persönliche Daten missbraucht werden oder Betrüger telefonisch Kontakt aufnehmen. Bei angeblichen Investments kann Geld verloren gehen, zum Beispiel durch Einzahlungen auf nicht existierende Konten.
Besonders gefährlich sind Deepfakes mit Gesundheitsversprechen. Von Hirschhausen warnt, dass Betrüger mit seinem gefälschten Gesicht und seiner Stimme Geld machten und dabei nutzlose und zum Teil auch schädliche Medikamente anbieten würden. „Denn schädlich ist ja weniger nur das, was man nimmt, sondern wenn dann gesagt wird, Sie können Ihre anderen Medikamente absetzen, bringt das auch konkret Menschen in Lebensgefahr”, so der Arzt und TV-Moderator.
Von Hirschhausen sagt, die Betrüger zielten vor allem auf vulnerable Menschen, die online nach Gesundheitstipps suchen – etwa zu Abnehmen, Potenzmitteln oder Herz-Kreislauf-Erkrankungen. Solche Suchabfragen liefern sensible Daten, die illegal gespeichert und genutzt würden, um den Suchenden passgenaue Werbung auszuspielen, die mit seinem gefälschten Gesicht und seiner Stimme zu dubiosen Anbietern führe.
Wie groß das Problem ist, zeigt eine Untersuchung der NGO Reset Tech: Zwischen 2023 und 2026 sammelte sie mehr als 350.000 Facebook-Anzeigen und über 2000 Google-Anzeigen für fragwürdige Gesundheitsprodukte in der EU. Viele enthielten unbelegte medizinische Versprechen. Ein Teil der Produkte galt laut Gesundheitsbehörden als illegal oder gefährlich.
Welche Folgen haben Deepfakes für Medien und Gesellschaft?
„Deepfakes sind durchaus ein Problem für die mediale Glaubwürdigkeit, weil wir eben selbst Video- und Audioaufnahmen, die bisher wirklich schwer zu fälschen waren und oft als handfeste Beweise galten, immer weniger trauen können”, sagt Politikwissenschaftlerin Pawelec. Journalistinnen und Journalisten müssten deshalb mehr Aufwand in die Prüfung von Material stecken. Fallen sie trotzdem auf Fakes herein, kann das politische Debatten verzerren und Vertrauen kosten. Gleichzeitig können echte Aufnahmen leichter als Fälschung abgetan werden. Pawelec nennt das die „Lügnerdividende“.
Auch wirtschaftlich ist der Schaden enorm. „Es gibt Tage, da summieren sich diese Schäden auf ein bis zwei Millionen Euro an einem einzigen Tag”, sagt Oberstaatsanwalt Goldbeck. Man müsse davon ausgehen, dass allein in Deutschland im Jahr ungefähr ein Schaden von einer Milliarde Euro durch Deepfake-Betrug entstehe.
Wie kann man Deepfake-Betrug erkennen und sich schützen?
Eine Metastudie aus dem Jahr 2024 hat herausgefunden, dass Menschen Deepfake-Videos nur in etwa 57 Prozent der Fälle erkennen, also kaum besser als beim Raten. Auch technische Prüfprogramme lösen das Problem nicht sicher. Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit erklärt, dass Deepfake-Detektoren unter Laborbedingungen oft gut funktionieren, in der Online-Welt aber deutlich schlechter abschneiden.
Die Verbraucherzentrale rät deshalb, nicht zuerst auf Lippenbewegungen, Stimme oder Mimik zu achten, sondern auf das Angebot selbst. Verspricht ein Video schnelle Heilung, extreme Gewichtsabnahme oder hohe Gewinne in kurzer Zeit, sollte man misstrauisch sein. Auch angebliche Geheimtipps, unbekannte Webseiten, kein Impressum, viele Rechtschreibfehler oder aggressive Aufforderungen zur Anmeldung sind Warnzeichen. Entscheidend ist auch die Herkunft des Videos. Die Verbraucherzentrale nennt fehlende Quellen und fehlende Links zu offiziellen Kanälen als Warnzeichen.
Wer also unsicher ist, sollte nicht klicken, nichts kaufen, keine Daten eingeben und kein Geld überweisen. Die Verbraucherzentrale empfiehlt außerdem, verdächtige Anzeigen mit einem Screenshot bei den Plattformen wie Facebook oder Instagram zu melden, andere Menschen im Umfeld zu warnen und bei zweifelhaften Shops den Fakeshop-Finder der Verbraucherzentralen zu nutzen.
Bessere Scanner, Wasserzeichen und digitale Signaturen für echte Videos könnten in Zukunft helfen, zumindest einen Teil des Deepfake-Problems in den Griff zu bekommen. „Wir brauchen hier wirklich ein Zusammenspiel von verschiedenen Maßnahmen, also von stärkerer gesetzlicher Regulierung, aber auch Plattformen-Selbstregulierung und -Verantwortung”, schlägt Politikwissenschaftlerin Pawelec vor. Sie fordert zudem mehr Medienkompetenz, bessere technische Werkzeuge zur Erkennung von Fakes und Verfahren, mit denen sich echte Inhalte technisch kennzeichnen lassen.
Onlinetext: Elena Matera




















