Wissenschaft
KI-Chatbots denken sich Fake-Quellen aus

KI-Chatbots können nicht nur über Ereignisse berichten, die es nie gegeben hat, sie können auch wissenschaftliche Quellen fälschen. Wenn Wissenschaftler von einer KI Quellen für Fachartikel brauchen, sollten sie dieses Vorgehen bedenken.

    Illustration zum Thema KI. Im Bild: KI-Chatbots von Meta AI, Amazon Alexa, M365 Copilot, ChatGPT, Gemini und Claude
    KI-Chatbots denken sich auch Quellenangaben aus (picture alliance / Helmut Fohringer / APA / picturedesk.com)
    Die Angaben wirken täuschend echt. Denn die Chatbots vermischen die Namen von echten Wissenschaftlern, wandeln echte Titel ab und erfinden Artikelin existierenden Fachzeitschriften mit Seitenangabe und Fake-Links zu Studien. Diese Links führen dann aber entweder ins Nichts oder auf einen komplett anderen Artikel.
    Ein Team der Fachzeitschrift "Nature" hat 4.000 zufällig ausgewählte Fachartikel aus dem Jahr 2025 analysiert. Ergebnis: In 65 Artikeln wurde mindestens eine Fake-Quelle gefunden. Viele Verlage, die Fachartikel veröffentlichen, setzen inzwischen Software ein, um Fake-Quellen automatisch zu erkennen. Aber oft müssen Verdachtsfälle immer noch von einem Menschen überprüft werden.
    Diese Nachricht wurde am 09.04.2026 im Programm Deutschlandfunk gesendet.