
Collien Ulmen-Fernandes ist Schauspielerin, Moderatorin und Autorin – und Opfer digitaler sexueller Gewalt. „Ich habe irgendwann von mehreren Seiten mitbekommen, dass es einige Fake-Profile von mir auf Social Media gibt. Diese Fake-Profile schreiben Leute aus meinem Umfeld an, auch aus meinem beruflichen Umfeld. Sie schreiben erst mal ganz normal und dann wird es immer flirtiver“, sagt Ulmen-Fernandes.
Fotos würden verschickt, die so wirkten, als hätte sie sich selbst nackt aufgenommen – und schließlich auch „Pornovideos“. Die Frau in diesen pornografischen Darstellungen sieht aus wie Collien Ulmen-Fernandes – ist sie aber nicht, sondern eine Fälschung. Die Fotos und Videos werden mit künstlicher Intelligenz (KI) hergestellt.
Zum Teil sind die Bilder äußerst brutal. „Immer wieder weine ich, liege am Boden, sage, dass ich das nicht möchte“, beschreibt Ulmen-Fernandes ein Video. In dem Film wird die KI-Version von ihr von rund 20 Männern vergewaltigt. „Das ist für mich schon alles ziemlich heftig und mit jedem Detail, was dazukommt, wird es natürlich schlimmer und schlimmer und belastender und belastender.“ Sie wünscht sich, dass die politisch Verantwortlichen endlich reagieren. Denn bisher stehen in Deutschland Betroffene nicht-einvernehmlicher Deepfake-Pornografie weitgehend schutzlos gegenüber.
Was ist Deepfake-Pornografie?
Bei Deepfake-Pornografie werden mithilfe von KI real existierende Gesichter und Körper bisweilen täuschend echt in pornografische Fotos oder Videos montiert oder das Bildmaterial wird insgesamt mit KI hergestellt. Dies kann mit dem Einverständnis der gezeigten Personen passieren, zum Beispiel in der Porno- oder der Filmindustrie, doch oft fehlt die Zustimmung. Die entstehenden Inhalte wirken manchmal so authentisch, dass selbst Angehörige oder Experten sie auf den ersten Blick für echt halten können.
Wie verbreitet ist Deepfake-Pornografie?
Es gibt keine verlässlichen Zahlen, wie verbreitet nicht-einvernehmliche Deepfake-Pornografie ist. Schätzungen zu Folge waren 2023 rund 100.000 Deepfake-Videos im Internet, davon sind laut einer Studie des Unternehmens Sensity (früher Deeptrace) 96 Prozent Deepfake-Pornografie. Die Zahlen nehmen seit Jahren offenbar zu. Das Social-Media-Unternehmen Views4You beobachtet bei Deepfake-Pornografie zwischen 2022 und 2023 einen Anstieg um 464 Prozent.
Wer sind die Betroffenen?
Opfer nicht-einvernehmlicher Deepfake-Pornografie sind fast ausschließlich Frauen. Expertinnen und Experten sprechen deshalb von einer geschlechtsspezifischen Form der digitalen Gewalt. Besonders oft betroffen sind Frauen, die in der Öffentlichkeit stehen, wie Schauspielerinnen, Wissenschaftlerinnen oder Politikerinnen.
Doch es gibt auch Fälle, in denen Frauen abgebildet werden, die nicht in der Öffentlichkeit sind. In der spanischen Stadt Almendralejo erregte ein Fall im Jahr 2023 international Aufsehen. Minderjährige Jungen hatten Nacktfotos von Mädchen erstellt und herumgeschickt – sogenannte Deepnudes („Ausziehfotos“). In Almendralejo waren mehr als 20 Mädchen betroffen.
Wer sind die Täter?
In den Fällen, in denen die Hersteller von KI-manipulierter Pornografie bekannt wurden, waren es Jungen und Männer. Das LKA Hessen schreibt in einer Stellungnahme an den Deutschlandfunk: „Allein handelnde Täter stammen zumeist aus dem persönlichen Umfeld der Opfer. Darüber hinaus werden ‚Deepfake-Pornos‘ von unbekannten Tätern erstellt, die über Online-Communities und Foren an Bilder ihrer Opfer gelangen. Organisierte Gruppen erstellen ‚Deepfake-Pornos‘ hingegen insbesondere zur kommerziellen Verbreitung.“
Zum Teil organisieren sich Täter im Internet, um die Frauen zu demütigen und zu quälen. „Das ist ein richtiger, perfider Sport, ein perfides Hobby“, sagt Jacqueline Sittig vom Deutschen Juristinnenbund. Wenn ein Inhalt einmal im Netz sei, werde er wie eine Lawine auf öffentlichen und nicht öffentlichen Wegen verbreitet.
Wo werden nicht-einvernehmliche Deepfake-Pornos verbreitet?
Nicht-einvernehmliche Deepfake-Pornografie verbreitet sich über Social Media, Online-Plattformen, Pornoseiten oder spezialisierte Foren im sogenannten Darknet. Neben öffentlich zugänglichen Netzwerken kursieren die Inhalte auch über private Chatgruppen und verschlüsselte Messenger. Dabei werden sowohl Links zu Plattformen geteilt, auf denen Deepfakes erstellt oder gehandelt werden, als auch fertige Bilder oder Videos. In vielen Fällen geschieht das anonym.
Wie ist die Rechtslage in Deutschland?
Im deutschen Strafrecht ist die Herstellung und Verbreitung nicht-einvernehmlicher Deepfake-Pornografie derzeit nicht explizit strafbar. Bestehende Vorschriften – etwa zur Beleidigung (§ 185 StGB), zur Verletzung des höchstpersönlichen Lebensbereichs (§ 201a StGB) oder zum Recht am eigenen Bild (§ 22 KUG) – greifen nur in Einzelfällen. Das könnte sich jedoch bald ändern.
Eine Bundesratsinitiative aus Bayern will den Paragrafen 201b ins Strafrecht einführen. Danach sollen die Herstellung und die Verbreitung nicht-einvernehmlicher Deepfakes mit einer Freiheitsstrafe von bis zu fünf Jahren bestraft werden können. Auch die Bundesregierung hat sich im Koalitionsvertrag auf die Reform des Cyber-Strafrechts geeinigt, insbesondere in Bezug auf bildbasierte sexualisierte Gewalt und Deepfakes. Auf Anfrage schreibt das Bundesjustizministerium, dass man derzeit prüfe, wie diese Vorgaben am besten umgesetzt werden können.
Was sind die europäischen Vorgaben?
Eine zentrale EU-Vorgabe ist die Richtlinie des Europäischen Parlaments und des Rates der EU zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, nach der missbräuchliche Deepfakes unter Strafe gestellt werden sollen. Deutschland muss sie bis Juni 2027 umsetzen. Bereits in Kraft ist der Digital Services Act. Er verpflichtet Online-Plattformen, illegale Inhalte wie Deepfake-Pornografie und bildbasierte sexualisierte Gewalt schnell zu löschen. In der Praxis zeigt die Plattformregelung bislang jedoch keine deutliche Wirkung. In Deutschland ist die Bundesnetzagentur zuständig.
Was können Opfer tun?
Betroffene von nicht-einvernehmlicher Deepfake-Pornografie können Anzeige erstatten. Die Polizei prüft dann den Einzelfall. Außerdem können die Opfer versuchen, das KI-Material aus dem Internet entfernen zu lassen. Bei Google gibt es dazu ein Meldeformular. Eine Herausforderung ist, dass jedes Bild oder Video pro URL gemeldet werden muss – also einzeln. Wenn das klappt, dann tauchen die Bilder bei Google nicht mehr in der Suche auf.
Auf den Plattformen selbst, wo die Bilder hochgeladen und verteilt werden, sind sie deshalb allerdings noch nicht gelöscht. Die Opfer müssen die Plattformen zusätzlich kontaktieren. Ein Problem ist, dass auf vielen Webseiten und Plattformen eindeutige, einfach zugängliche und valide Meldewege für Opfer von Deepfake-Pornografie fehlen. Kleinere oder ausländische Dienste – etwa auf Pornoplattformen, Imageboards oder Foren – bieten oft keine klaren Meldeformulare oder Supportstrukturen.
Unterstützung bekommen die Opfer von nicht-einvernehmlicher Deepfake-Pornografie bei Organisationen wie dem Weißen Ring, HateAid oder AnnaNackt.