Gesundheit
KI-Chatbots wie ChatGPT und andere führen Erkrankte auf der Suche nach einer Diagnose laut Studie oft in die Irre

KI-Sprachmodelle wie Chat GPT und Ähnliche sind bei der Beantwortung von Gesundheitsfragen für die meisten Menschen wenig hilfreich. Das zeigt eine neue Studie aus Großbritannien.

    Illustration: Ein technisiert dargestelltes Auge mit den Wörtern Analysis und Complete.
    KI-Sprachmodelle wie Chat GPT sind bei Gesundheitsfragen wenig zuverlässig. (picture alliance / Shotshop / Sergey Nivens)
    Probanden sollten in einem Versuch KI-Chatbots Symptome einer Krankheit schildern und um eine Diagnose bitten. Sie fragten auch, ob man einen Arzt aufsuchen oder sogar den Notruf wählen solle. Eine Kontrollgruppe recherchierte klassisch im Internet, ohne KI. Alle Probanden kannten nur die Symptome, nicht die Ursache.
    Das Ergebnis der Studie: Die KI-Anwendungen bieten im Vergleich zur klassischen Recherche im Internet keinen Mehrwert. Bei der Kontrollgruppe war es demnach anderthalbmal so wahrscheinlich, dass sie eine passende Diagnose wie Blutarmut, Erkältung oder Gallensteine herausbekam.
    Die Chatbots hätten die Angaben der Probanden oft missverstanden oder nicht ausreichend nachgefragt. Zugleich neigten Menschen dazu, den medizinischen KI-Antworten zu vertrauen. Diese klängen sprachlich sehr überzeugend, selbst dann, wenn der Inhalt medizinisch absolut falsch sei.
    Die Studie wurde im Fachmagazin Nature Medicine veröffentlicht.
    Diese Nachricht wurde am 10.02.2026 im Programm Deutschlandfunk gesendet.