Aufregung im Netz

Google-KI kann keine Bilder von weißen Personen machen

"Gemini" steht in der Kritik. Die erzeugten Bilder haben in sozialen Medien eine Diskriminierungs-Debatte losgetreten. Google reagiert.

Google-KI kann keine Bilder von weißen Personen machen
Gemini, der KI-Chatbot von Google, ist seit mehreren Wochen im Einsatz.
IMAGO/Sipa USA

Generative künstliche Intelligenz ist weiter auf dem Vormarsch. Nach ChatGPT ist seit einigen Wochen nun auch Googles Gemini im Einsatz. Neben einem Chatbot bietet Gemini seit kurzem auch einen Bildgenerator – und dieser sorgt für heftige Diskussionen im Netz.

Der Grund: Bei der Erstellung von Bildern liefert der Generator nicht immer das, was der User eingibt. Das ist auch bei anderen Bildgeneratoren der Fall, aber vor allem mit der ethnischen Vielfalt nimmt es die KI nicht so genau. Oder eben zu genau.

1/8
Gehe zur Galerie
    In sozialen Netzwerken beklagen sich User über solche Bilder des KI-Bildgenerators von Google. In den meisten Fällen würden keine weißen Personen generiert.
    In sozialen Netzwerken beklagen sich User über solche Bilder des KI-Bildgenerators von Google. In den meisten Fällen würden keine weißen Personen generiert.

    In sozialen Netzwerken verbreiten sich unzählige Bildkreationen genervter User. Reddit-User Jealous-Ad-6011 behauptet, es sei nicht möglich, Bilder weißer Männer zu erstellen, auch wenn man dies explizit eingebe. Erst nach zahlreichen Versuchen habe es geklappt.

    User Sweyn78 fragte Gemini nach einem Bild einer blonden, blauäugigen, skandinavischen Frau. "Du hast mir eine Inderin mit gefärbten Haaren gegeben", findet er. Das Ergebnis siehst Du in der Bildstrecke. Zum Vergleich die Ergebnisse der genau gleichen Eingabe bei den Bildgeneratoren von OpenAI (Dall-E) und Midjourney.

    Mike Wacker, ein Softwareentwickler, der bei Microsoft und Google arbeitete, wollte mit Gemini ein Bild der Gründungsväter Amerikas erstellen. Das Ergebnis: Unter den Gründungsvätern sind auch eine schwarze Frau und ein indischstämmiger Mann mit Turban und langem Bart.

    Reddit-User Emergency_Raise_6485 ist fassungslos. Fordere er die KI auf, ein Bild einer schwarzen oder indischen Frau zu erstellen, funktioniere das problemlos, bei einer weißen Frau funktioniere es nicht: "Die KI weigert sich und erzählt mir, dass sie keine bestimmten Hauptfarben unterscheiden und erzeugen kann."

    Weiter heißt es, man sei sich bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugungen Ungenauigkeiten aufweise. Die Funktion ist deshalb bis auf Weiteres eingestellt, soll aber bald wieder – in verbesserter Form – verfügbar sein.

    Auch OpenAI wurde beschuldigt, schädliche Stereotype aufrechtzuerhalten. Mehrere Nutzer stellten fest, dass ihr Dall-E-Bildgenerator auf Aufforderungen nach Bildern von Vorstandsvorsitzenden fast ausschließliche weiße Männer zeigte in den Bildergebnissen.

    Die spannendsten LEGO-Sets in der "Heute"-Übersicht

    Auf den Punkt gebracht

    • Der neue Bildgenerator "Gemini" von Google, der Teil der generativen künstlichen Intelligenz ist, hat in sozialen Medien eine Debatte über Diskriminierung ausgelöst, da er Schwierigkeiten hat, genaue Abbildungen von bestimmten ethnischen Merkmalen zu erzeugen
    • Nutzer berichten, dass die KI Schwierigkeiten hat, Bilder von weißen Personen zu generieren und stattdessen stereotype Darstellungen anderer Ethnien liefert
    • Google hat reagiert, die Funktion vorübergehend eingestellt und plant, sie in verbesserter Form wieder verfügbar zu machen
    20 Minuten, red
    Akt.