KI liegt komplett daneben

Ist es echt? Foto von Massenbestattung geht um die Welt

Ein Bild zeigt die Massenbestattung der Opfer des mutmaßlichen US-Angriffs auf eine Mädchenschule – doch ausgerechnet KI-Tools sorgen für Verwirrung.
Newsdesk Heute
18.03.2026, 15:24
Hör dir den Artikel an:
00:00 / 02:45
1X
BotTalk
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Das Foto ging um die Welt: Dutzende frisch ausgehobene Gräber in der iranischen Stadt Minab, nebeneinander in Reih und Glied. Weit mehr als 100 Mädchen sollen nach einem Angriff dort begraben werden. Ein Bild, das die Folgen des US-israelischen Kriegs gegen den Iran brutal greifbar macht. Doch ist es real?

Wer die Echtheit prüfen will und auf Künstliche Intelligenz setzt, landet schnell auf der falschen Spur. Der "Guardian" wagte den Test und das Ergebnis erschüttert.

Googles KI "Gemini" als auch Musks System "Grok" behaupteten selbstbewusst: Das Bild stammt gar nicht aus Minab. Die Antworten klingen auf den ersten Blick überzeugend.

Gemini verortet das Foto in der Türkei nach dem schweren Erdbeben 2023. Grok wiederum spricht von Covid-Massengräbern in Indonesien, 2021. Beide liefern sogar angebliche Quellen – die sich bei genauerem Hinsehen als falsch oder gar nicht existent entpuppten.

So klar und präzise die Antworten erscheinen, die KI-Systeme liegen schlichtweg falsch. Die Wahrheit ist eine andere: Das Bild ist echt. Experten konnten den Ort anhand von Satellitenbildern, zahlreichen weiteren Fotos und Videos aus Minab eindeutig bestätigen. Hinweise auf Manipulation gibt es nicht.

Was passiert ist

Der Angriff auf die Shajareh-Tayyebeh-Schule am ersten Tag des US-israelischen Kriegs gegen den Iran bestand aus zwei Raketen-Schlägen in schneller Folge. 168 Menschen, überwiegend Mädchen im Alter zwischen 7 und 12 Jahren, wurden dabei laut iranischen Angaben getötet.

Experten innerhalb und außerhalb des US-Militärs halten es für wahrscheinlich, dass US-Streitkräfte dafür verantwortlich waren. Es habe sich mutmaßlich um "Tomahawk"-Raketen gehandelt, mit denen der angrenzende Komplex der Islamischen Revolutionsgarde beschossen wurde. Insgesamt wurden 13 Gebäude beschädigt. Das Pentagon untersucht den Vorfall.

Die Vereinten Nationen fordern unabhängige Ermittlungen: "Ein Anschlag auf eine Schule ist ein schwerer Angriff auf Kinder, auf die Bildung und auf die Zukunft einer ganzen Gemeinschaft. Es gibt keine Entschuldigung dafür, Mädchen in einem Klassenzimmer zu töten."

KI sorgt für Chaos

Der Fall zeigt ein wachsendes Problem: Immer öfter verbreiten sich falsche KI-Antworten rasend schnell. Laut Experten besteht mittlerweile ein großer Teil der kursierenden Falschinfos aus KI-generierten Inhalten.

Besonders heikel: 65 Prozent der Nutzer verlassen sich inzwischen auf KI-Zusammenfassungen statt auf Originalquellen. Studien zeigen jedoch, dass jede zweite KI-Antwort mindestens einen schweren Fehler enthält – bei manchen Systemen sogar deutlich mehr.

Auch im Iran-Krieg häufen sich solche Fälle. Falsche Bilder, erfundene Analysen und KI-Fehleinschätzungen kosten wertvolle Zeit – und erschweren die Aufklärung echter Kriegsverbrechen.

"Faktenchecker müssen sich mittlerweile regelmäßig sowohl mit einem falschen Beitrag als auch mit einer irreführenden Behauptung befassen, die ein Chatbot im Zusammenhang mit diesem Beitrag aufstellt", erklärt Shayan Sardarizadeh, leitender Journalist im BBC Verify-Team.

Ein Teil des Problems liegt in der Funktionsweise der zugrundeliegenden LLM-Modelle: Sie reihen für ihre Antwort bloß die ihnen am wahrscheinlichsten erscheinende Wortfolge aneinander. Dieser Prozess führt zwar zu überzeugenden, glaubwürdig klingenden Sätzen – das heißt aber nicht, dass die KI das vorgelegte Material tatsächlich analysiert hat.

Gefährliche Entwicklung

Experten warnen: Die immer mehr ausartende Flut an KI-Fehlinformation könnte dazu führen, dass in Zukunft selbst echte Beweise angezweifelt werden. Bilder realer Tragödien könnten schnell als "Fake" abgetan werden.

Für die Betroffenen ist das besonders bitter. Wer Angehörige verliert und dann online lesen muss, alles sei erfunden, erlebt einen Schlag ins Gesicht.

{title && {title} } red, {title && {title} } 18.03.2026, 15:24
Jetzt E-Paper lesen