Multimedia

KI beurteilte dieses Bild falsch – mit fatalen Folgen

Hinter Falschinformationen stecken nicht immer Menschen. Offenbar können auch kostenlose Online-Tools, die Fakes erkennen sollen, solche erschaffen.

20 Minuten
Dieses Bild, das auf der Plattform X (ehemals Twitter) geteilt wurde, wird von Online-Tools, die automatisch erkennen sollen, ob Bilder KI-generiert sind, und von menschlichen Experten für digital bearbeitete Bilder unterschiedlich bewertet. Davon berichtet das US-Magazin 404 Media.
Dieses Bild, das auf der Plattform X (ehemals Twitter) geteilt wurde, wird von Online-Tools, die automatisch erkennen sollen, ob Bilder KI-generiert sind, und von menschlichen Experten für digital bearbeitete Bilder unterschiedlich bewertet. Davon berichtet das US-Magazin 404 Media.
Screenshot X

Wer sich voll und ganz auf andere verlässt, ist verlassen. Dieses Sprichwort gilt nicht nur für Zwischenmenschliches, sondern auch für Online-Tools. Das zeigt ein Bericht des US-Magazins 404 Media. In diesem geht es insbesondere um ein Bild, das die verkohlte Leiche eines Babys zeigen soll, das bei einem Hamas-Angriff getötet wurde.

Was ist mit diesem Bild?

Geteilt wurde dieses unter anderem vom offiziellen Account Israels auf X (ehemals Twitter). Auch der US-amerikanische Autor, Rechtsanwalt und konservative politischer Kommentator Ben Shapiro teilte das Bild. Sein Post wurde dann von X-User Jackson Hinkle in Form eines Screenshots weiterverbreitet – zusammen mit einem Screenshot der Website Aiornot.com, laut dem das Foto "generated by AI" ist. Eine Erklärung dafür, wie dieses Urteil zustande kommt, gibt es nicht. An dem Urteil gibt es jedoch Zweifel.

1/5
Gehe zur Galerie
    Der "Magische Radierer" sorgte für großes Erstaunen bei der offiziellen Präsentation der Google-Smartphones. Hier sehen wir warum:  Im Bild sind die neuen Pixel-Pro-Modelle, doch das Holzstück im Hintergrund wirkt etwas störend. Wir nutzen den KI-Radierer und …
    Der "Magische Radierer" sorgte für großes Erstaunen bei der offiziellen Präsentation der Google-Smartphones. Hier sehen wir warum: Im Bild sind die neuen Pixel-Pro-Modelle, doch das Holzstück im Hintergrund wirkt etwas störend. Wir nutzen den KI-Radierer und …
    20M

    Was sind das für Zweifel?

    404 Media hat Hany Farid, einem Experten für digital bearbeitete Bilder und Professor an der Universität Kalifornien in Berkeley, das Bild vorgelegt. Laut ihm ist das Bild "nicht einmal teilweise KI-generiert". Sein Fazit fußt auf folgenden drei Punkten:

    - KI-Bildgeneratoren seien derzeit durchweg nicht in der Lage, die Realität, wie sie im Foto festgehalten wird, richtig wiederzugeben: "Einer der Aspekte, mit denen diese Generatoren Probleme haben, sind stark strukturierte Formen und gerade Linien. Wenn man das Tischbein und die Schraube sieht, sieht alles perfekt aus und das passiert normalerweise nicht bei KI-Generatoren", so der Fachmann zu 404 Media.
    - Auch die Schatten sprechen gegen die Behauptung, dass das Foto KI-generiert ist: Sie seien zu einheitlich: "Die strukturellen Konsistenzen, die präzisen Schatten, das Fehlen von Artefakten, die wir normalerweise bei KI sehen", ließen darauf schließen, dass es ein echtes Foto ist.
    - Auch weitere Bildanalyse-Tools – ein von Farid selbst entwickeltes, das mit einer großen Anzahl realer und KI-generierter Bilder trainiert wurde, und vier weitere externe KI-Bilderkennungstools – kämen zu dem Schluss, dass das Bild real und nicht KI-generiert ist.

    Unklar bleibt laut Farid, was auf dem Bild zu sehen ist, sowie wann und wo es aufgenommen wurde.

    Ist das Bild damit zu 100 Prozent echt?

    "Nein", so Farid zu dem US-Medium. "Klassifikatoren sind gut, sie gehören zum Werkzeugkasten, aber sie sind nur ein Teil des Werkzeugkastens. Sie müssen über das Bild in seiner Gesamtheit nachdenken. Wenn man sich diese Dinge ansieht, muss man eine Reihe von Tests durchführen." Man könne nicht einfach einen Knopf drücken, um eine Antwort zu erhalten. "So geht es nicht. Es ist kein CSI."

    Gibt es noch weitere Belege dafür, dass KI-Bilddetektoren falsch liegen können?

    Die gibt es. Wie 404 Media schreibt, attestierte ein auf Huggingface.co gehosteter KI-Bilddetektor einem von dem New-York-Times-Fotografen Samar Abu Elouf gemachten Foto (Bezahlartikel) eine Echtheit von nur 48 Prozent. Mit einer Wahrscheinlichkeit von 52 Prozent sei es KI-generiert, lautete das Urteil. Auch hier gab es keine weitere Erklärung dazu, wie dieses zustande kam. Das Internet sei voll von solchen Tools, und wir haben keine Ahnung, «wie sie genau funktionieren oder ob sie korrekt sind», bringt 404 Media das Problem auf den Punkt. Bei einer Wahrscheinlichkeit von 52 Prozent könne jeder mit diesem Tool jedes gewünschte Argument vorbringen.

    So sieht es auch der Erfinder des KI-Bilddetektors auf Huggingface.co, Matthew Brown. Er würde mindestens einen Schwellenwert von 90 oder sogar 95 Prozent anwenden. Auch er betont, dass solche Tools allein nicht zuverlässig genug sein. "Es ist ein Screening-Tool."

    Warum sind solch ungenaue KI-Bilddetektorentools problematisch?

    Das zeigt das Beispiel des Bildes, das die verkohlte Leiche eines Babys zeigen soll, das bei einem Hamas-Angriff getötet wurde. Die Behauptung, dass das Bild KI-generiert sei, hat sich – trotz des mittlerweile hinzugefügten Hinweises, dass die Website Aiornot.com unzuverlässig ist – auf der Plattform X bereits weit verbreitet. Sie wird dazu genutzt, den Eindruck zu erwecken, dass offizielle israelische Konten KI-generierte Fehlinformationen verbreiten.