Elon Musks KI-Tool "Grok" sorgt schon wieder für heftige Kritik. Schon früher hat die KI von xAI mit antisemitischen Aussagen und der Verbreitung von Falschmeldungen für Aufregung gesorgt. Jetzt gibt es aber ein neues Problem: Immer öfter tauchen im Netz Bilder von Frauen und sogar Minderjährigen auf, die sexualisiert wurden. Das sind Deepfakes von echten Menschen, deren Fotos ohne Zustimmung missbraucht worden sind.
Grok ist ein KI-Tool, das 2023 auf den Markt gekommen ist. Im Sommer 2025 hat Elon Musk dann groß verkündet, dass es jetzt auch "Grok Imagine" mit einem "Spicy Mode" gibt. Damit kann man sogenannte "Not Safe For Work"-Inhalte erstellen.
Musk wollte damit angeblich mehr Meinungsfreiheit und weniger Zensur erreichen. Tatsächlich hat das Tool aber dazu geführt, dass Nacktfotos von Promis wie Taylor Swift erstellt wurden.
Ende Dezember 2025 hat Grok ein weiteres Update bekommen. Damit kann man nicht nur neue Bilder generieren, sondern auch fremde Fotos ohne Genehmigung bearbeiten. Das hat einen neuen Trend ausgelöst: Zahlreiche Nutzer haben die KI gebeten, die Kleidung von Frauen auf Fotos zu entfernen. Auch Promis wie die "Stranger Things"-Schauspielerin Millie Bobby Brown waren betroffen.
Allein bei einer Stichprobe zwischen 5. und 6. Jänner wurden schätzungsweise 6.700 solcher Deepfakes pro Stunde erzeugt, so die "Futurezone". "Bloomberg" berichtet etwa von einer jungen Frau, die plötzlich ein bearbeitetes Bild von sich im Netz fand. Sie hatte davor ein Foto mit ihrem Freund auf x gepostet. Ein User hat Grok dann aufgefordert, den Freund wegzuschneiden und die Frau im Bikini darzustellen. Ein anderer hat die KI gebeten, den Bikini durch Zahnseide zu ersetzen. Die Betroffene hat versucht, das Bild zu melden – aber laut x hat das Foto nicht gegen die Regeln verstoßen und blieb daher online.
Grok kann direkt auf x verwendet werden, um Bilder zu erstellen oder zu bearbeiten. Was dort gemacht wird, landet automatisch auf der Plattform. Ganz nackte Darstellungen sind dort aber nicht möglich. Es gibt aber auch eine eigene Grok-Website bzw. App, die unabhängig von x funktioniert. Dort können auch "extreme sexuelle Darstellungen und teils gewalttätige Inhalte" erzeugt werden.
Auch Minderjährige sind betroffen. Wie The Wire berichtet, gibt es auf der Plattform sogar Videos, in denen eine Frau mit einem Messer im Intimbereich zu sehen ist und Blut an den Beinen hat. Die NGO AI Forensics hat solche Inhalte mit archivierten Imagine-URLs überprüft. Sie fanden 800 von Grok Imagine generierte Bilder und Videos mit pornografischem Inhalt, wie auch der Guardian berichtet. Auf etwa 2 Prozent der Bilder waren Personen zu sehen, die vermutlich 18 Jahre oder jünger sind.
"Meistens handelt es sich um Hentai, aber es gibt auch Fälle, in denen fotorealistische, sehr junge Menschen sexuelle Handlungen ausüben", sagt Paul Bouchaud, leitender Forscher bei AI Forensics gegenüber The Wire. Er hat auch Videos gesehen, in denen sich "extrem junge Frauen" ausziehen und mit Männern sexuelle Handlungen ausüben.
Die britische Internet Watch Foundation (IWF) hat bestätigt, dass Nutzer in einem Darknet-Forum damit geprahlt haben, mit Grok Imagine sexualisierte Bilder von Mädchen zwischen 11 und 13 Jahren erstellt zu haben.
Technisch ist das alles keine Hexerei mehr. Es reicht ein Foto einer Person, Grok und ein passender Prompt – die KI macht dann, was verlangt wird, auch wenn sie Minderjährige erkennen kann. Theoretisch wäre das auch mit anderen KI-Tools wie denen von OpenAI, Google oder Anthropic möglich. Diese haben aber strengere Sicherheitsfilter und verhindern so die Erstellung solcher Inhalte.
Musk und xAI betonen, dass sie gegen illegale Inhalte vorgehen. Pornografische Inhalte sind zwar erlaubt, aber nicht, wenn reale Personen dargestellt werden. Auch "die Sexualisierung oder Ausbeutung von Kindern" sowie "alle illegalen, schädlichen oder missbräuchlichen Aktivitäten" sind laut den Richtlinien von xAI verboten. Wer dagegen verstößt, soll gesperrt werden. Doch laut CNN ist das Sicherheitsteam, das das überwacht, durch Kündigungen immer kleiner geworden.
Auch OpenAI will heuer einen "Erwachsenen Modus" für ChatGPT herausbringen. Die "Verwendung des Abbilds einer Person, einschließlich ihres fotorealistischen Bildes oder ihrer Stimme, ohne deren Zustimmung in einer Weise, die zu Verwechslungen hinsichtlich der Authentizität führen könnte", ist aber auch dort verboten.
Die Empörung ist weltweit groß. In Großbritannien hat man sogar überlegt, x komplett zu verbieten. Behörden in Indien, Malaysia und Europa haben Ermittlungen gestartet.
Elon Musk selbst sieht die Verantwortung offenbar nicht bei sich oder seinen Firmen. Bestraft werden sollen vor allem jene, die solche Inhalte anfordern: "Jeder, der Grok nutzt, um illegale Inhalte zu erstellen, muss mit denselben Konsequenzen rechnen, als würde er illegale Inhalte hochladen", erklärte Musk am 3. Jänner auf x.
Wie der Guardian berichtet, hat xAI jetzt reagiert. "Die Erstellung und Bearbeitung von Bildern sind derzeit auf zahlende Abonnenten beschränkt", heißt es von Grok. Wer das nutzen will, muss also persönliche Daten und Kreditkarteninformationen angeben. Damit können viel weniger Menschen solche Inhalte erzeugen. Wer trotzdem illegale Bilder erstellt, kann leichter ausgeforscht werden. Ob xAI damit jetzt wirklich aus dem Schneider ist, bleibt abzuwarten. Klar ist: Elon Musk kassiert nun auch Geld für die Sexualisierung von Nutzern.