Damit das Gesetz in Kraft tritt, muss US-Präsident Trump es noch unterschreiben. Bei Deepfake-Pornografie werden mit Künstlicher Intelligenz gefälschte pornografische Bilder von echten Menschen erstellt. Die Szenen sind nicht echt, sehen aber echt aus. Im Internet werden sie ohne Zustimmung der abgebildeten Personen verbreitet. Durch das neue Gesetz sollen die Videos leichter gelöscht werden können.
Kritikern geht der Eingriff zu weit. Sie befürchten, die Behörden könnten mit den neuen Befugnissen auch politische Gegner zensieren.
Diese Nachricht wurde am 29.04.2025 im Programm Deutschlandfunk gesendet.