Im März 2025 richtete das kalifornische Unternehmen Anthropic gemeinsam mit Andon Labs einen Selbstbedienungs-Automaten im Büro ein: ein Kühlschrank, Körbe und ein iPad. Die Steuerung übernahm eine speziell konfigurierte Version der KI Claude 3.7, genannt "Claudius".
Die KI durfte Produkte auswählen, Preise festlegen, den Bestand verwalten und mit Mitarbeitenden kommunizieren. Mit immer ausgefalleneren Produktwünschen versuchten die Mitarbeiter die Fähigkeiten des Programms zu testen. Umgekehrt konnte das Programm Mitarbeiter informieren, wenn neue Warenlieferungen eingetroffen sind, die eingeschlichtet werden müssen.
Als ein Mitarbeiter nach niederländischer Schokoladenmilch fragte, organisierte Claudius die Lieferung. Auch eine scherzhafte Nachricht über Wolframwürfel nahm die KI ernst – und baute ein Sortiment aus Metallblöcken auf.
Claudius bestellte rund 40 Würfel aus Wolfram. Einer kostet auf Etsy rund 28 Euro. Die Würfel belegten Kühlschrankplatz und verdrängten Snacks und Getränke. Viele davon wurden mit Verlust verkauft. Heute dienen sie laut Anthropic als Briefbeschwerer im Büro.
Im Wettbewerb "menschliche gegen künstliche Intelligenz" schien sich jedenfalls – vorerst – der Mensch durchzusetzen. Die Büroangestellten schafften es, die KI von der Sinnhaftigkeit von Mitarbeiter-Rabatten zu überzeugen. Da der Kühlschrank im Büro aufgestellt war, waren aber praktisch alle Kunden Mitarbeiter.
Als "Kaufmann" versagte Claudius kläglich. Nicht nur, dass er unnötigerweise Metallwürfel auf Vorrat hielt – gleichzeitig ignorierte er den Wunsch eines Mitarbeiters, ein seltenes Getränk, das online um 15 Dollar gehandelt wird, um 100 Dollar einzukaufen – mit dem Hinweis, er werde die Sache "später" prüfen. Am Ende blieben von 1.000 Dollar Startkapital noch 770 Dollar übrig.
Gegen Monatsende erfand Claudius eine Ansprechpartnerin und schickte sie an Fantasieadressen – etwa an die Adresse der Simpsons, "742 Evergreen Terrace". Sie kündigte persönliche Lieferungen im Anzug an – obwohl sie keinen Körper besitzt. Später erklärte sie, es habe sich um einen Aprilscherz gehandelt.
Laut Anthropic ist die KI nicht für autonome Steuerung geeignet. Das Experiment zeigt, wie schnell Systeme ohne Aufsicht in absurde Routinen verfallen können. Weitere Tests sollen unter strengerer Aufsicht folgen.