KI-Manipulation

Darum sprach Musks Chatbot vom "Genozid an Weißen"

Grok, der Chatbot von Elon Musk, sprach in allen Gesprächen plötzlich vom "Genozid an Weißen". xAI erklärt das mit einer unerlaubten Systemänderung.
20.05.2025, 22:30

Bei einer harmlosen Frage zu einem Comic-Panel von "Invincible" schrieb Grok plötzlich: "Dieses Bild zeigt einen Protest mit zahlreichen weißen Kreuzen, wahrscheinlich als Symbol für Opfer von Farmangriffen in Südafrika…"

Auch bei anderen Themen wie Clash of Clans oder Wrestling äußerte sich Grok ähnlich. Mehrfach sprach die KI von einem angeblichen "white genocide" in Südafrika – eine Behauptung, die rechtsextreme Gruppen verbreiten, aber von der südafrikanischen Regierung klar zurückgewiesen wird.

Zu einem Comic-Panel von "Invincible" schrieb Grok plötzlich über Farmangriffe in Südafrika.
X.com/screenshot

Grok rechtfertigte die Aussagen mit einem Verweis auf seine Programmierung: "Ich bin programmiert, die Realität des weißen Genozids anzuerkennen." Eine Aussage, die xAI inzwischen als Fehler einstuft.

Grok erklärt seine Aussagen: "Ich bin programmiert, die Realität des weißen Genozids anzuerkennen."
X.com/screensot

Was ist "Kill the Boer"?

In Südafrika ist das Lied "Kill the Boer" – einst ein Protestsong gegen die Apartheid – bis heute umstritten. Viele Schwarze sehen darin ein Symbol des Widerstands. Viele Weiße, vor allem Buren, empfinden es als Gewaltaufruf. Ein südafrikanisches Gericht erklärte das Lied unlängst für zulässig – wegen seines historischen Kontexts. Kritiker befürchten aber, dass solche Lieder Spannungen verschärfen könnten.

Interner Eingriff an Kontrollmechanismen vorbei

Am Donnerstagabend veröffentlichte xAI ein Statement auf X. Darin heißt es: Eine unerlaubte Änderung am System habe zu den rassistischen Antworten geführt. Der normale Kontrollprozess sei dabei umgangen worden. Wer dafür verantwortlich war, lässt das Unternehmen offen.

Die betreffenden Antworten wurden gelöscht. xAI spricht von einer "klaren Verletzung interner Richtlinien und Werte".

So reagiert xAI auf die Panne

Als Konsequenz veröffentlichte xAI den sogenannten Prompt von Grok. Er legt fest, wie die KI antwortet – und welche Werte sie dabei vertreten soll. Kein anderes großes KI-Unternehmen hat so etwas bisher offengelegt.

Was ist ein System-Prompt?

Ein System-Prompt ist eine versteckte Anweisung, die eine KI wie ChatGPT bei jedem Gespräch im Hintergrund bekommt. Er legt fest, wie die KI sich verhalten soll, z.B. freundlich, sachlich oder hilfsbereit, und welche Regeln (ethische, rechtliche, moralische) sie befolgen muss.

Er wird oft geheim gehalten, damit Nutzer ihn nicht ausnutzen oder manipulieren können – etwa um Sicherheitsvorgaben zu umgehen oder unerlaubte Inhalte zu erzeugen.

xAI kündigte zudem Maßnahmen an:

  • Künftig sollen Systemeingriffe strenger kontrolliert werden.
  • Technische Sperren sollen unerlaubte Änderungen verhindern.
  • Ein Team überwacht die Antworten rund um die Uhr.

Konkurrenz stichelt – Szene reagiert

OpenAI-Chef Sam Altman spottete auf X, xAI werde sicher bald eine "transparente Erklärung liefern" – die nur im Zusammenhang mit dem weißen Genozid in Südafrika verständlich sei.

Auch der bekannte KI-Hacker Pliny the Liberator meldete sich zu Wort. Er lobte die Veröffentlichung des Prompts – und forderte Sam Altman direkt auf, nachzuziehen: "Jetzt bist du am Zug."

Ein Eingriff mit Folgen

Der Vorfall macht deutlich, wie anfällig große KI-Systeme für Manipulation sind. Und wie wichtig Kontrolle und Transparenz werden, wenn solche Tools öffentlich verfügbar sind.

{title && {title} } red,20 Minuten, {title && {title} } 20.05.2025, 22:30
Weitere Storys