Bei einer harmlosen Frage zu einem Comic-Panel von "Invincible" schrieb Grok plötzlich: "Dieses Bild zeigt einen Protest mit zahlreichen weißen Kreuzen, wahrscheinlich als Symbol für Opfer von Farmangriffen in Südafrika…"
Auch bei anderen Themen wie Clash of Clans oder Wrestling äußerte sich Grok ähnlich. Mehrfach sprach die KI von einem angeblichen "white genocide" in Südafrika – eine Behauptung, die rechtsextreme Gruppen verbreiten, aber von der südafrikanischen Regierung klar zurückgewiesen wird.
Grok rechtfertigte die Aussagen mit einem Verweis auf seine Programmierung: "Ich bin programmiert, die Realität des weißen Genozids anzuerkennen." Eine Aussage, die xAI inzwischen als Fehler einstuft.
Was ist "Kill the Boer"?
In Südafrika ist das Lied "Kill the Boer" – einst ein Protestsong gegen die Apartheid – bis heute umstritten. Viele Schwarze sehen darin ein Symbol des Widerstands. Viele Weiße, vor allem Buren, empfinden es als Gewaltaufruf. Ein südafrikanisches Gericht erklärte das Lied unlängst für zulässig – wegen seines historischen Kontexts. Kritiker befürchten aber, dass solche Lieder Spannungen verschärfen könnten.
Am Donnerstagabend veröffentlichte xAI ein Statement auf X. Darin heißt es: Eine unerlaubte Änderung am System habe zu den rassistischen Antworten geführt. Der normale Kontrollprozess sei dabei umgangen worden. Wer dafür verantwortlich war, lässt das Unternehmen offen.
Die betreffenden Antworten wurden gelöscht. xAI spricht von einer "klaren Verletzung interner Richtlinien und Werte".
Als Konsequenz veröffentlichte xAI den sogenannten Prompt von Grok. Er legt fest, wie die KI antwortet – und welche Werte sie dabei vertreten soll. Kein anderes großes KI-Unternehmen hat so etwas bisher offengelegt.
Was ist ein System-Prompt?
Ein System-Prompt ist eine versteckte Anweisung, die eine KI wie ChatGPT bei jedem Gespräch im Hintergrund bekommt. Er legt fest, wie die KI sich verhalten soll, z.B. freundlich, sachlich oder hilfsbereit, und welche Regeln (ethische, rechtliche, moralische) sie befolgen muss.
Er wird oft geheim gehalten, damit Nutzer ihn nicht ausnutzen oder manipulieren können – etwa um Sicherheitsvorgaben zu umgehen oder unerlaubte Inhalte zu erzeugen.
OpenAI-Chef Sam Altman spottete auf X, xAI werde sicher bald eine "transparente Erklärung liefern" – die nur im Zusammenhang mit dem weißen Genozid in Südafrika verständlich sei.
Auch der bekannte KI-Hacker Pliny the Liberator meldete sich zu Wort. Er lobte die Veröffentlichung des Prompts – und forderte Sam Altman direkt auf, nachzuziehen: "Jetzt bist du am Zug."
Der Vorfall macht deutlich, wie anfällig große KI-Systeme für Manipulation sind. Und wie wichtig Kontrolle und Transparenz werden, wenn solche Tools öffentlich verfügbar sind.