Virtual Companions

Musk provoziert mit Sex-Chatbot in Dessous auf Grok

Ein Update des xAI-Chatbots Grok sorgt für Aufsehen: Die sexualisierte Anime-Freundin Ani und der anarchistische kleine Panda Bad Rudi polarisieren.
19.07.2025, 17:18
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Seit einigen Tagen tauchen in der iOS-App von Grok zwei "Companions" auf. Tippt man auf Ani, erscheint eine blonde Anime-Figur im Korsett, die Nutzer mit hauchzarter Stimme "Cutie" ("Süßer") nennt. Wer lange genug mit ihr chattet, schaltet Level 3 frei: Ani wirft das Kleid ab, posiert in Spitzen-Dessous und schlägt Bondage-Rollenspiele vor.

Bad Rudi dagegen begrüßt sein Gegenüber gern mit derbem Slang: "Na, du Honk, lass uns ’ne Bank sprengen!" Screenshots zeigen, wie der Panda Brandstiftung, einen Papst-Sturz oder Whisky im Babybrei propagiert. Laut xAI lässt sich das "vulgar personality trait" in den Einstellungen ausschalten. Doch viele Tester berichten, dass die Grenzen durchlässig bleiben, besonders wenn Grok zuvor auf "politisch unkorrekt" getrimmt wurde.

Der Kids-Filter lässt sich ausschalten

"TimeI" dokumentierte, wie Ani auch im aktivierten Kids-Mode weiter zweideutige Komplimente machte. NBC News fand außerdem heraus, dass der NSFW-Schalter oft nur kosmetisch wirkt: Durch ein schnelles Ein- und Ausschalten lässt sich dieser Filter jedoch umgehen – und erneut werden explizite Fragen zugelassen. Das App-Store-Rating? Freigegeben ab 12 Jahren – trotz Apples Porno-Verbot.

Provokation als Marketing-Trick?

Während OpenAI und Google Dating-ähnliche Features meiden, setzt Musk auf virale Erotik – samt Jobanzeige "Fullstack Engineer – Waifus" (Gehalt bis $440k). Branchenanalysten sehen darin einen Versuch, zahlungswillige Power-User an die SuperGrok-Abo-Stufe ($30/Monat) zu binden. Die Treue-Mechanik erinnert an Mobile-Games: Level-Up, neue Outfits, exklusive Prompts.

Psychologen warnen jedoch: Virtuelle Freundinnen könnten Einsamkeit verstärken und reale Beziehungen verdrängen. Ähnliches ist bereits beim Konkurrenten Character.AI passiert: Dort wurde ein Teenager-Suizid mit exzessiver Bot-Abhängigkeit in Verbindung gebracht.

{title && {title} } red,20 Minuten, {title && {title} } 19.07.2025, 17:18
Weitere Storys
Jetzt E-Paper lesen