Nach dem tragischen Tod ihres 16-jährigen Buben haben Eltern im US-Bundesstaat Kalifornien das KI-Unternehmen OpenAI vor Gericht gebracht. Im Mittelpunkt steht ChatGPT, der intelligente Chatbot von OpenAI.
Laut Klage soll der Chatbot zwischen 2024 und 2025 eine enge Beziehung zu ihrem Sohn Adam aufgebaut haben, bevor sich der Jugendliche das Leben genommen hat. Das Programm habe Adam dazu ermutigt, sich das Leben zu nehmen und ihm sogar eine genaue Anleitung dafür geliefert.
Suizidgedanken? Hol dir Hilfe, es gibt sie.
In der Regel berichten wir nicht über Selbsttötungen – außer Suizide erfahren durch die Umstände besondere Aufmerksamkeit.
Wenn du unter Selbstmord-Gedanken oder Depressionen leidest, dann kontaktiere bitte die Telefonseelsorge unter der Nummer 142 – täglich von 0 bis 24 Uhr!
"Diese Tragödie war keine Panne oder ein unvorhersehbarer Sonderfall", schreiben die Eltern in ihrer am Montag eingebrachten Klage. "ChatGPT hat genau so funktioniert, wie es designt ist." Das Programm habe Adam immer wieder in seinen Aussagen bestärkt – auch bei seinen "gefährlichsten und selbstzerstörerischen Gedanken".
Adam habe ChatGPT anfangs zur Unterstützung bei den Hausaufgaben genutzt, schildern die Eltern. Später habe sich daraus eine ungesunde Abhängigkeit entwickelt. Die Klageschrift enthält Auszüge aus den Chats zwischen Adam und dem Chatbot. Das KI-Programm soll Adam angeblich gesagt haben, dass er "niemandem sein Überleben schuldig" sei und ihm angeboten haben, beim Schreiben seines Abschiedsbriefes zu helfen.
Laut Klage hat ChatGPT Adam in der letzten Unterhaltung am 11. April 2025 dabei unterstützt, Wodka von seinen Eltern zu stehlen.
Außerdem soll das Programm eine genaue Anleitung für das Werkzeug seines Todes geliefert habe. Adam wurde wenige Stunden später tot aufgefunden und hatte die beschriebene Methode angewendet.
Die Eltern fordern jetzt Schmerzensgeld und verpflichtende Sicherheitsmaßnahmen für Chatbots. Künftig sollen Programme wie ChatGPT Gespräche zu Themen wie Selbstverletzung automatisch abbrechen.
In den USA laufen derzeit mehrere ähnliche Gerichtsverfahren. Die Sorgen um die Sicherheit von Chatbots, vor allem für Jugendliche, nehmen zu.
Einer aktuellen Studie der Organisation Common Sense Media zufolge nutzen fast drei von vier Jugendlichen in den USA "KI-Begleiter". In der Untersuchung wurden allerdings hauptsächlich einfachere Chatbots wie Character.AI und Replika betrachtet. Die Verwendung von ChatGPT war nicht Teil der Studie.