Donnerstag, 25. April 2024

Archiv

"Deep-Fakes"
Fälschungen mittels künstlicher Intelligenz

Sich die Stimme einer anderen Person überstreifen wie eine zweite Haut: Das verspricht die neue Software einer Firma aus Boston. Mit einer solchen "voice-skin", die auf künstlicher Intelligenz basiert, kann dann jeder klingen wie z. B. Barack Obama. Das hört sich an wie ein Spaß, kann aber zum Problem werden - nicht nur für Journalisten.

Von Peter Weissenburger | 30.04.2019
Barack Obama setze sich auf verschiedenen Wahlkampfveranstaltungen ein. Zuletzt vor 3.000 Anhängern des demokratischen Kandidaten Andrew Gillum in Florida.
Nicht nur seine Stimme lässt sich fälschen, und das immer besser: Barack Obama (AFP / Rhona Wise)
Künstliche Obama-Stimme: "You can chose a voice-skin based on someone else – or create the perfect voice-skin from scratch."
Ein bisschen rumpelig ist er noch, der künstliche Obama. Aber doch erstaunlich, denn die Software der Firma Modulate aus Boston erkennt und imitiert Stimmen ganz von alleine.
Wie, das erklärt Produktentwickler Terry Chen: "Sie hört etwa auf die Frequenz der Stimme, und sie greift auch auf einige Vergleichssätze zwischen echten und künstlichen Stimmen zurück, um den Unterschied zu erlernen."
So eine "voice-skin" kann sich jede und jeder überstreifen.
Künstliche weibliche Stimme: "Und das klingt dann so."
Für die Umwandlung meiner männlichen Stimme in eine weibliche brauchte es nicht eine einzige menschliche Tontechnikerin. Das macht alles die künstliche Intelligenz. Genauer gesagt: zwei künstliche Intelligenzen.
Terry Chen: "Die Sprachmaschine auf der einen Seite muss man sich wie den Künstler vorstellen, sie erzeugt die Sprachmuster. Dem gegenüber steht der so genannte Zuhörer. Der ist die kritische Stimme, die sagt: Ja, das war schon okay, aber noch nicht menschlich genug."
Wenn künstliche Intelligenz immer besser darin wird, das Menschliche zu imitieren, dann lassen sich damit auch Dokumente fälschen. Tonaufnahmen, Bilder, sogar Videos. "Deep-Fakes" heißen die Ergebnisse solcher Manipulationen.
Im Videobereich geht das längst – mit der Anwendung FakeApp. FakeApp, seit einem Jahr auf dem Markt, kann Gesichter recht überzeugend in Videos verpflanzen.
Technik noch in den Kinderschuhen
Die perfekte Täuschung gibt es zwar bislang nicht - aber das sei eine Frage der Zeit, sagt der Kommunikationswissenschaftler Jonas Kaiser: "Momentan sind wir noch an einer Stelle in der Technologie – aber das entwickelt sich halt rasant – wo man das grundsätzlich noch weitgehend gut – oder nicht gut, aber man kann es so einigermaßen - identifizieren kann. Das wird sich natürlich mit dem Fortschreiten der Technologie wandeln."
Kaiser erforscht an der Universität Harvard, wie Onlinediskurse beeinflusst werden können, etwa aus politischen Motiven.
"Ich denke schon, dass das auf jeden Fall ein großes Risikopotenzial hat, gerade zu Beginn. Man muss sich ja immer erstmal an etwas akklimatisieren, an etwas gewöhnen. Das war mit Photoshop ja nicht anders."
Fakes können aus vielen Gründen erstellt werden. Oft sind sie Satire oder eine Werbekampagne. Aber manchmal geht es darum, gezielt Falschinformationen im öffentlichen Bewusstsein zu platzieren. Zu unfreiwilligen Gehilfen werden hier oft ausgerechnet die Nachrichtenredaktionen. Die Journalistin Karolin Schwarz schult deshalb Kolleginnen und Kollegen im Erkennen von Fakes. An den "Deep-Fakes" besorgt sie vor allem, wie automatisch plötzlich alles geht.
"Man muss dann nicht mehr Photoshop nehmen und da in stundenlanger Kleinstarbeit ein einzelnes Foto manipulieren, sondern man kann das einigermaßen automatisiert in der Massenproduktion machen."
Solange sich Falschmeldungen auch ohne künstliche Intelligenz prima im Diskurs verfangen, sind wir nicht bereit für den nächsten technologischen Schritt, sagt Schwarz.
Fälschungen werden schon jetzt zu wenig entdeckt
"In Schulungen merk‘ ich tatsächlich ziemlich häufig, dass auch viele Kolleginnen und Kollegen noch nicht so sehr vertraut sind mit der Rückwärtsbildersuche. Und das betrifft auch alle Altersstufen, das ist nicht nur so, dass die älteren Kolleginnen und Kollegen das nicht können, sondern tatsächlich betrifft es auch teilweise Volontäre."
Die Rückwärtsbildersuche prüft, ob ein Bild, von dem behauptet wird, es stamme von einem aktuellen Ereignis, so oder so ähnlich bereits im Netz steht.
"Dann im ersten Schritt vielleicht nochmal schauen: Wo wird das sonst auf Sozialen Medien geteilt, wer teilt das? Wo kommt das her, gibt’s noch andere Quellen? Was eigentlich klare journalistische Arbeit ist."
Terry Chen und seine Firma Modulate in Boston jedenfalls wollen verhindern, dass ihre Voice-Skins als Fakenews-Maschine berühmt werden. Deswegen werden alle ihre Audios mit einem akustischen Wasserzeichen ausgestattet – einem Ton außerhalb der menschlichen Wahrnehmung. Mithilfe von Prüfsoftware lässt sich so ein manipuliertes Audio identifizieren.