KI macht Fehler

Jede zweite KI-News-Zusammenfassung ist falsch

Fast jede zweite KI-News-Zusammenfassung enthält Fehler. Laut BBC und der EBU sind vorwiegend falsche Quellen und ungenaue Fakten das Problem.
24.10.2025, 22:19
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

22 Medienhäuser aus 18 Ländern prüften Gratisversionen von ChatGPT, Copilot, Gemini und Perplexity.

Fast jede zweite Antwort war ungenau oder unvollständig. Am häufigsten traten laut der BBC/EBU-Studie (PDF) auf:

  • fehlerhafte Quellenangaben (31 Prozent)
  • falsche Fakten (20 Prozent)

Ranking nach Fehleranteil

Vom schlechtesten zum besten, gemessen an der Gesamtfehlerquote, schnitt Gemini von Google am schlechtesten ab, während Perplexity die geringste Fehlerquote verzeichnete.

Hier ist das Ranking. So oft machten die getesteten KIs gravierende Fehler:

Gemini: 76 Prozent
Copilot: 37 Prozent
ChatGPT: 36 Prozent
Perplexity: 30 Prozent

Gemini verzeichnete demnach mehr als doppelt so viele gravierende Fehler wie der nächstplatzierte Assistent Copilot. Laut der Studie liegt das hauptsächlich an falschen und vor allem fehlenden Quellenangaben.

Das bedeutet im Durchschnitt eine 45-prozentige Fehlerquote aller getesteten Tools.

Viele vertrauen der Technik trotzdem

Trotz der hohen Fehlerquote glauben viele Nutzer, dass KI verlässliche Nachrichten liefert. Laut einer Ipsos-Befragung (PDF) vertrauen 42 Prozent der Erwachsenen auf korrekte Zusammenfassungen, bei den unter 35-Jährigen fast die Hälfte. Nur 38 Prozent prüfen KI-Antworten überhaupt. 64 Prozent sagen, man solle vorsichtig sein, setzen das aber selten um.

So entstehen die meisten Fehler

  • Faktenfehler: falsche Zahlen, Daten oder Namen – laut 84 Prozent der Befragten in der BBC/EBU-Studie besonders schädlich für das Vertrauen.
  • Quellenfehler: fehlerhafte oder erfundene Zuordnungen.
  • Falsche Einordnung: Meinungen erscheinen als Tatsachen, etwa bei politischen oder gesellschaftlichen Themen.

Forscher fordern strengere Kontrolle

Laut EBU treten die Fehler in allen getesteten Sprachen und Programmen auf. Besonders problematisch seien falsche Quellenangaben. Dadurch sieht es so aus, als stammten die fehlerhaften Infos von seriösen Medien. Die Forscher verlangen mehr Transparenz und klare Hinweise, wenn Informationen unsicher sind. (PDF)

Vertrauen in Medien leidet mit

Fehlerhafte KI-Antworten treffen auch die Nachrichtenseiten, deren Inhalte sie zusammenfassen. 23 Prozent der Befragten machen laut Ipsos die Medien selbst verantwortlich, obwohl die Fehler von der KI stammen. Deshalb warnt die BBC/EBU-Analyse: Wenn KI News-Inhalte falsch wiedergibt, sinkt das Vertrauen in seriöse Informationsquellen.

KI bleibt unzuverlässig

Das Fazit der Studienautoren: KI-Assistenten sind derzeit kein verlässliches Werkzeug für Nachrichten. Ihre Antworten klingen oft sicher, enthalten aber regelmäßig Fehler und gefährden so das Vertrauen in den Journalismus.

{title && {title} } red,20 Minuten, {title && {title} } 24.10.2025, 22:19
Jetzt E-Paper lesen