Archiv

Missbrauchsgefahr
KI-Entwickler OpenAI gibt Programm zum Klonen echter Stimmen noch nicht frei

Der ChatGPT-Entwickler OpenAI hat ein Programm zum Klonen von Stimmen vorgestellt. Die Technologie wird wegen Missbrauchsgefahr aber noch nicht freigeben. Das neue Programm "Voice Engine" sei in der Lage, eine Stimme anhand eines 15-sekündigen Audioschnipsels zu duplizieren, teilte das Unternehmen in San Francisco mit.

    Illustration des KI-Anbieters OpenAI. Sie programmieren unter anderem ChatGPT.
    Der KI-Entwickler OpenAI gibt ein neues Progamm zum Klonen echter Stimmen noch nicht frei. (IMAGO / NurPhoto / IMAGO / CFOTO)
    Aus Sicherheitsgründen soll die Technologie aber zunächst weiter getestet werden. Dabei werde sichergestellt, dass Menschen, deren Stimme geklont werde, vorher ausdrücklich zustimmten. Zudem müsse den Hörern deutlich gemacht werden, dass die Stimmen, die sie hören, von KI generiert wurden.
    Die Erzeugung von Sprache berge erhebliche Risiken, hieß es von OpenAI. Dies betreffe insbesondere die Stimmen von Politikerin, die in einem Wahljahr im Fokus der Öffentlichkeit stünden.
    Im US-Bundesstaat New Hampshire wird derzeit zu von einer KI generierten Anrufen ermittelt. Dabei war vor der dortigen Vorwahl im Januar die Stimme von US-Präsident Biden imitiert worden, um Menschen von der Stimmabgabe abzuhalten.
    Mehr zum Thema:
    Desinfo und Deepfakes: Wie die EU ihre Wahlen besser schützen will
    KI in der Biomedizin: Hoffnung, Fortschritt, Biowaffen?
    UNO-Vollversammlung billigt erste Resolution zu Künstlicher Intelligenz
    Diese Nachricht wurde am 30.03.2024 im Programm Deutschlandfunk gesendet.