Nach Suizid eines 16-Jährigen
OpenAI kündigt "Kindersicherung" für ChatGPT an

Das US-Unternehmen OpenAI hat für seinen KI-Chatbot ChatGPT eine Kindersicherung angekündigt. Eltern erhielten in Kürze die Möglichkeit, ihr Nutzerkonto mit dem ihres Kindes zu verknüpfen. Hintergrund ist der Suizid eines 16-Jährigen im US-Bundesstaat Kalifornien.

    Auf einem Handybildschirm sieht man das Logo der App "Chat GPT".
    Für ChatGPT soll es eine Kindersicherung geben. (Imago | Silas Stein)
    Den Angaben zufolge sollen Eltern künftig kontrollieren können, wie die Künstliche Intelligenz auf das Verhalten der Kinder reagiert, indem sie "altersgerechte Verhaltensregeln festlegen". Details dazu nannte OpenAI nicht. Auch sollen Eltern benachrichtigt werden, wenn die Software eine "akute Notlage" feststelle.
    Die Eltern des 16-Jährigen haben OpenAI verklagt, da sie ChatGPT für den Selbstmord ihres Sohnes verantwortlich machen. Ihr Kind habe eine ungesunde Abhängigkeit von ChatGPT entwickelt.

    Auch Meta will Kinder besser schützen

    Zuvor hatte bereits der Facebook-Mutterkonzern Meta neue Schutzmaßnahmen für den Umgang seiner KI-Chatbots mit Minderjährigen eingeführt. Wie ein Unternehmenssprecher mitteilte, werden die Systeme so trainiert, dass sie nicht mit Minderjährigen flirten können und Gespräche über Selbstverletzung oder Suizid vermeiden. Es handele sich zunächst um vorübergehende Maßnahmen. Man sei dabei längerfristige Regeln zu entwickeln, damit Teenager sicher und altersgerecht mit der KI interagieren könnten.
    Diese Nachricht wurde am 03.09.2025 im Programm Deutschlandfunk gesendet.