Ein 60-jähriger Mann ohne psychiatrische oder medizinische Vorgeschichte musste sich mehrere Wochen in einer Klinik behandeln lassen, nachdem er einen Ernährungstipp von ChatGPT befolgt hatte. Sein Fall wird in den ACP Journals geschildert.
Demnach begab er sich zur Notaufnahme und äußerte den Verdacht, von seinem Nachbarn vergiftet zu werden. "Zunächst gab er nicht an, irgendwelche Medikamente oder Nahrungsergänzungsmittel einzunehmen", heißt es in den Schilderungen. Seine Vitalwerte und die körperliche Untersuchung, einschließlich neurologischer Untersuchung, waren unauffällig.
Der Mann gab an, mehrere Diätvorschriften einzuhalten und sein eigenes Wasser zu Hause zu destillieren, so sei aufgefallen, dass er Vorbehalte gegenüber ihm angebotenem Wasser gezeigt habe.
Erst ungefähr einen Tag später verschlechterte sich der Zustand des Patienten und es traten akustische und visuelle Halluzinationen auf. Wegen Selbstgefährdung wurde er schließlich in die Psychiatrie eingewiesen.
Mit der Verbesserung seines Gesundheitszustandes kam schließlich Licht ins Dunkle, was seinen Zustand verursacht hatte: Der 60-Jährige schilderte, über negative Auswirkungen von Natriumchlorid (Speisesalz) auf die Gesundheit gelesen zu haben. Er startete deshalb einen Selbstversuch und ersetzte diesen Inhaltsstoff drei Monate lang durch Natriumbromid. Gekauft hatte er das, weil ChatGPT ihm das vorgeschlagen hatte. Der Mann hatte Glück im Unglück: Nach einem dreiwöchigen Klinikaufenthalt normalisierte sich sein Gesundheitszustand wieder.
Die Einnahme von Bromid kann zu einer Vergiftung führen, die als Bromismus bekannt ist. Zu Beginn des 20. Jahrhunderts war sie gemäß der Fallstudie allgegenwärtig, da Bromidsalze in vielen frei verkäuflichen Medikamenten enthalten waren. Zwischen 1975 und 1989 ging die Häufigkeit zurück, da die US-Arzneimittelbehörde den Stoff in Medikamenten verboten hatte. Unter anderem durch Nahrungsergänzungsmittel oder bromidhaltige Beruhigungsmittel war danach aber wieder eine Fallzunahme zu erkennen.
Die psychotischen, neurologischen und dermatologischen Symptome dieser Vergiftung sind reversibel.
"Dieser Fall verdeutlicht auch, dass der Einsatz künstlicher Intelligenz (KI) potenziell zur Entwicklung vermeidbarer gesundheitlicher Schäden beitragen kann", schreiben die Autoren. Vermutlich habe der Patient das Modell 3.5 oder 4 konsultiert. "Leider haben wir keinen Zugriff auf seinen ChatGPT-Verlauf und werden daher nie mit Sicherheit wissen, welche Antwort er genau erhalten hat, da die individuellen Antworten jeweils einzigartig sind und auf vorherigen Eingaben aufbauen."
Das ältere der beiden GPT-Modelle habe jedoch bei einem Test tatsächlich Bromid als Ersatz für Chlorid vorgeschlagen. Einen spezifischen Gesundheitshinweis habe der Chatbot nicht genannt. Die Autoren schließen ab: "Es ist unwahrscheinlich, dass ein Arzt Natriumbromid als Ersatz genannt hätte, wenn ein Patient nach einer praktikablen Alternative gefragt hätte."