Handy gehackt?

"KI hat Veröffentlichung samt Autor und Titel erfunden"

Von falschen Stromanschlüssen bis zu erfundenen Studien – Leserinnen und Leser berichten, wie KI-Tools wie ChatGPT komplett danebenlagen.
31.05.2025, 16:07

Wie zuverlässig ist ChatGPT wirklich? Immer mehr Menschen nutzen den KI-Chatbot im Alltag – für Recherchen, Textvorschläge oder sogar medizinische Informationen. Doch verschiedene Studien zeigen: Fehler in den generierten Antworten sind keine Seltenheit.

Je nach Anwendungsbereich variiert die Fehlerquote deutlich. So berichten beispielsweise 59 Prozent der Nutzer laut einer Erhebung von Civey und der Universität Duisburg-Essen, dass sie bereits falsche Antworten erhalten haben. In anderen Tests lag die Fehlerquote bei fachlichen Fragen teils bei über 50 Prozent.

Auch bei Leserinnen und Lesern der Community sind schon solche Fehler passiert, wie sie erzählen:

"KI hat mir das falsche Datum angezeigt"

Leserin Ursula etwa hat kürzlich unliebsame Erfahrungen mit KI gemacht: "Am 8. Mai 2025, circa vier Stunden nach der Wahl von Papst Leo XIV., habe ich die Meta-KI beauftragt, mir ein Geburtshoroskop von ihm zu erstellen. Die Antwort der KI lautete: Der Papst heiße Franziskus. Ich fand diese Antwort merkwürdig und stellte auch diesbezüglich Fragen an die KI DeepSeek. Diese antwortete mir, dass wir uns im Jahr 2023 befänden."

Daraufhin suchte sie Hilfe bei ihren Netzbetreibern Salt und Swisscom: "Salt teilte mir mit, dass mein Handy nicht gehackt worden sei. Beide Anbieter bestätigten, dass meine Zeiteinstellungen in Ordnung seien. Danach wandte ich mich erneut an die Meta-KI und erklärte, dass mein Gerät in Ordnung sei und ich wissen wolle, in welchem Jahr wir uns befinden. Die Antwort lautete: 2024. Ich erklärte, dass dies falsch sei, und bat sie, das Zeitfehler-Problem zu lösen. Die Meta-KI versprach mir, dies zu tun. Ich müsse ihnen jedoch das aktuelle Datum übermitteln – was ich getan habe. Und tatsächlich: Es hat geklappt! Auch DeepSeek zeigt jetzt, dank meiner Bemühungen, die richtige Zeitangabe an. Dies sei ihr Fehler gewesen und habe etwas mit dem Server zu tun."

"Die Realität war komplett anders"

Auch Andreas hat Ähnliches erlebt: "Wir wollten mal eine Schlauchboottour machen. Die KI hatte mir einen guten Fluss sowie eine geeignete Einstiegsstelle empfohlen. Sehr bekanntes Stück, haufenweise Leute machen die Route, hieß es dort. Fahrtdauer und Ausstieg – alles wurde detailliert beschrieben. In der Realität war dort kein Mensch, es gab Dutzende Wasserfälle und Brücken, unter die man nicht gepasst hat. Kurz gesagt: Die Fahrt wurde abgebrochen."

"Das Schema war komplett falsch"

Philipp spricht auch aus Erfahrung: "Ich habe ChatGPT gefragt, wie ich einen Backofen richtig anschließen muss. Doch mehrere Antworten waren offensichtlich komplett falsch – zum Beispiel der Anschluss des Schutzleiters als Brücke zu einer Anschlussklemme für eine Phase oder die Zusammenführung einer Phase direkt mit dem Neutralleiter. ChatGPT hat mir sogar ein entsprechendes Schema gezeichnet! Komplett falsch."

"Alles erfunden"

Julia hat auch schon falsche Informationen erhalten: "Ich bin Wissenschaftlerin und in der Immunologie tätig. Bei der Suche nach einer wissenschaftlich fundierten Quelle für ein Reagenz hat ChatGPT schon einmal eine wissenschaftliche Veröffentlichung samt Autor und Titel erfunden. Bei genauerer Recherche stellte sich heraus, dass diese Quelle gar nicht existierte. In Schwierigkeiten brachte es mich deswegen nicht, aber es war ein einschneidendes Aha-Erlebnis, das mich nun dazu bringt, genauer zu überprüfen, was ChatGPT behauptet."

{title && {title} } red,20 Minuten, {title && {title} } 31.05.2025, 16:07