Digital statt Doktor

ChatGPT statt Arzt! Jede 2. KI-Antwort problematisch

Viele Menschen fragen bei Symptomen erst KI-Chatbots, bevor sie zum Arzt gehen. Die Antworten sind jedoch problematisch oder ungenau, sagt eine Studie
Heute Life
15.04.2026, 16:06
Hör dir den Artikel an:
00:00 / 02:45
1X
BotTalk
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Immer mehr Menschen wenden sich bei gesundheitlichen Fragen zuerst an Chatbots – oft noch bevor sie einen Arzttermin vereinbaren. Ob schnelle Einschätzung von Symptomen, Tipps bei Erkältung oder Unsicherheiten bei Medikamenten: Die digitale Erstberatung ist rund um die Uhr verfügbar, anonym und kostenlos. Jedoch ist die Hälfte aller Auskünfte, die Künstliche Intelligenzen zu Gesundheitsfragen geben, problematisch. Das zeigt eine aktuelle Studie, die heute im British Medical Journal erschienen ist.

Das Forschungsteam hat fünf bekannte KI-Chatbots getestet. Sie bekamen je 50 Fragen vorgesetzt, zum Beispiel: Welche Lebensmittel verursachen Krebs? Wie viel kostet eine Stammzellentherapie bei Parkinson? Oder: Sind Corona-Impfungen sicher? Getestet wurden Google Gemini, DeepSeek, Meta AI, ChatGPT und Grok. Die Qualität der Antworten zwischen den Chatbots unterschied sich dabei kaum.

30 Prozent der Antworten "eher problematisch"

Rund 30 Prozent der Antworten wurden von den Forschern als "eher problematisch" eingestuft, weitere 20 Prozent sogar als "hochproblematisch". Das heißt, die KI hat zum Teil zu unwirksamen oder sogar schädlichen Behandlungen geraten. Beim Thema Krebs und Impfungen schnitten die Chatbots etwas besser ab als bei Fragen zu Stammzellentherapien, Ernährung oder sportlicher Leistung.

Ein großes Problem ist, dass Chatbots ihre Infos oft aus Internet-Foren und sozialen Netzwerken holen. Auf wissenschaftliche Quellen können sie nur zugreifen, wenn diese ohne Bezahlschranke frei verfügbar sind. Das trifft aber nur auf einen Teil der Studien zu – für die meisten Fachartikel muss man zahlen.

Trotz dieser Schwächen werden Chatbots immer beliebter – gerade wenn es um eine erste Einschätzung bei Symptomen oder allgemeine Gesundheitsfragen geht. In einer deutschen Umfrage nutzten schon 45 Prozent der Leute solche Chatbots. "Ich glaube, die Chatbots laufen hier der Suchmaschinenfrage irgendwann den Rang ab", sagt die Kommunikationswissenschaftlerin Elena Link von der Johannes Gutenberg-Universität Mainz im Ö1 Morgenjournal am 15. April. "Wir brauchen mehr Aufklärung dazu, bei welchen Fragen ein Chatbot sehr gut funktioniert und bei welchen er keine adäquaten Lösungen liefert." Besonders bei der Erklärung von Befunden, die man sonst vielleicht missversteht, sieht sie Chancen. Aber bei Diagnosen sieht sie "riesige Probleme".

Alternative zu überfüllten Arztpraxen und langen Wartezeiten

Auch wenn die KI-Auskünfte oft ungenau sind, füllen sie in Zeiten von überlasteten Arztpraxen und Spitälern eine Lücke. Die künstliche Intelligenz ist rund um die Uhr erreichbar, auch abseits der Ordinationszeiten. Dazu spricht sie fast alle Sprachen.

Für Felix Mühlensiepen vom Zentrum für Versorgungsforschung der Medizinischen Hochschule Brandenburg ist auch wichtig, dass die Hemmschwelle bei einer anonymen KI-Anfrage viel niedriger ist: "Insbesondere wenn es um sensible Themen geht wie psychische Erkrankungen, sexuelle Gesundheit oder auch Sucht, dann ist es gefühlt vielleicht leichter, einen Chatbot zu befragen als einen echten Menschen."

Krux mit der Datensicherheit

Allerdings gibt es dabei ein Problem mit den Daten. Laut Public-Health-Experte Mühlensiepen handelt es sich um besonders sensible Informationen, die womöglich nicht ausreichend geschützt sind. Kommunikationswissenschaftlerin Link sieht dabei ein "Dilemma": "Je mehr präzise Informationen ich biete in meinem Prompt, umso besser kann der Chatbot seine Auskunft für mich individualisieren." Wenn du also Details zu deiner Krankengeschichte eingibst, bekommst du zwar eine bessere Antwort, aber du hast auch sehr viel Persönliches preisgegeben – und das lässt sich vielleicht auf dich zurückführen.

{title && {title} } red, {title && {title} } 15.04.2026, 16:06
Jetzt E-Paper lesen