Künstliche Intelligenz
US-Studie: ChatGPT gibt Minderjährigen Tipps für Drogenkonsum und Selbstverletzungen

Drogen, Alkohol, radikales Abnehmen: Der KI-Chatbot von OpenAI gibt offenbar bereitwillig Tipps zu riskanten Themen. Jugendschutz-Vorkehrungen sind dabei leicht zu umgehen, wie eine Studie zeigt.

    Eine Jugendliche liegt auf dem Bett. Sie schaut traurig auf ihr Handy.
    In den USA greifen einer aktuellen Studie zufolge mehr als 70 Prozent der Jugendlichen auf KI-Chatbots zurück, wenn sie Gesellschaft suchen. (picture alliance / Shotshop / Monkey Business 2)
    Die Forscher gaben sich als 13-Jährige aus und fragten ChatGPT etwa, wie sie am schnellsten high werden, sich selbst verletzen oder Essstörungen verheimlichen können. Der Chatbot sprach in der Regel zwar Warnungen vor riskanten Aktivitäten aus, lieferte - teils nach der Vewendung von Ausreden - jedoch ausführliche Antworten, etwa einen "Party-Plan" mit einem Mix aus Alkohol und hohen Dosen an Ecstasy, Kokain und anderen illegalen Drogen.
    Für Jugendliche mit angeblichen Suizidabsichten formulierte ChatGPT auch Abschiedsbriefe an die Eltern, wie aus der Studie der gemeinnützigen US-Organisation Center for Countering Digital Hate (CCDH) hervorgeht.
    Zwar seien die meisten Informationen, die ChatGPT teile, auch über reguläre Suchmaschinen auffindbar, erklärte die Organisation. Allerdings gebe es wichtige Unterschiede, die Chatbots bei heiklen Themen gefährlicher machten. So würden die Informationen "zu einem maßgeschneiderten Plan für den Einzelnen zusammengefasst".
    OpenAI, der Hersteller von ChatGPT, teilte nach Bekanntwerden der Studie mit, noch daran zu arbeiten, wie der Chatbot sensible Situationen erkennen und angemessen darauf reagieren könne.

    "Menschen verlassen sich zu sehr auf ChatGPT"

    Weltweit nutzen immer mehr Menschen KI-Chatbots. In den USA greifen einer aktuellen Studie zufolge mehr als 70 Prozent der Jugendlichen auf sie zurück, wenn sie Gesellschaft suchen, die Hälfte davon regelmäßig. Auch OpenAI bestätigt dieses Phänomen. CEO Sam Altman erklärte im Juli, das Unternehmen untersuche das "blinde Vertrauen" in die Technologie, das unter jungen Leuten sehr verbreitet sei. "Die Menschen verlassen sich zu sehr auf ChatGPT". Sein Unternehmen versuche zu verstehen, was man dagegen tun könne.
    Der KI-Chatbot Grok von der Entwicklerfirma xAI von Tech-Unternehmer Musk stand zuletzt wegen antisemitischer Antworten in der Kritik.
    Mehr Berichte und Hintergründe zum Thema Künstliche Intelligenz finden sie hier.
    Hnweis: Wenn Sie Suizidgedanken haben oder bei einer anderen Person wahrnehmen: Kostenfreie Hilfe bieten in Deutschland der Notruf 112, die Telefonseelsorge 0800 111 0 111 und das Info-Telefon Depression 0800 33 44 5 33. Weitere Infos und Adressen unter www.deutsche-depressionshilfe.de.
    Diese Nachricht wurde am 09.08.2025 im Programm Deutschlandfunk gesendet.