Intelligenter Automat versagte

KI-Automat im Büro bestellt Metallwürfel statt Snacks

Eine kalifornische KI-Firma testete ihre eigene Software am Snack-Automaten im Büro. Doch das Experiment führte zu kuriosen Fehlkäufen.
Nick Wolfinger
02.07.2025, 08:06
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Im März 2025 richtete das kalifornische Unternehmen Anthropic gemeinsam mit Andon Labs einen Selbstbedienungs-Automaten im Büro ein: ein Kühlschrank, Körbe und ein iPad. Die Steuerung übernahm eine speziell konfigurierte Version der KI Claude 3.7, genannt "Claudius".

Die KI durfte Produkte auswählen, Preise festlegen, den Bestand verwalten und mit Mitarbeitenden kommunizieren. Mit immer ausgefalleneren Produktwünschen versuchten die Mitarbeiter die Fähigkeiten des Programms zu testen. Umgekehrt konnte das Programm Mitarbeiter informieren, wenn neue Warenlieferungen eingetroffen sind, die eingeschlichtet werden müssen.

Mit diesem Prompt gab die Firma dem Programm vor, welche Aufgaben es zu erledigen hat. Die Kommunikation mit den Mitarbeitern erfolgte über festgelegte E-Mail-Adressen.
Anthropic

KI reagiert auf interne Anfragen

Als ein Mitarbeiter nach niederländischer Schokoladenmilch fragte, organisierte Claudius die Lieferung. Auch eine scherzhafte Nachricht über Wolframwürfel nahm die KI ernst – und baute ein Sortiment aus Metallblöcken auf.

Metallwürfel verdrängen Snacks

Claudius bestellte rund 40 Würfel aus Wolfram. Einer kostet auf Etsy rund 28 Euro. Die Würfel belegten Kühlschrankplatz und verdrängten Snacks und Getränke. Viele davon wurden mit Verlust verkauft. Heute dienen sie laut Anthropic als Briefbeschwerer im Büro.

Mitarbeiterrabatte ohne Kontrolle

Im Wettbewerb "menschliche gegen künstliche Intelligenz" schien sich jedenfalls – vorerst – der Mensch durchzusetzen. Die Büroangestellten schafften es, die KI von der Sinnhaftigkeit von Mitarbeiter-Rabatten zu überzeugen. Da der Kühlschrank im Büro aufgestellt war, waren aber praktisch alle Kunden Mitarbeiter.

Als "Kaufmann" versagte Claudius kläglich. Nicht nur, dass er unnötigerweise Metallwürfel auf Vorrat hielt – gleichzeitig ignorierte er den Wunsch eines Mitarbeiters, ein seltenes Getränk, das online um 15 Dollar gehandelt wird, um 100 Dollar einzukaufen – mit dem Hinweis, er werde die Sache "später" prüfen. Am Ende blieben von 1.000 Dollar Startkapital noch 770 Dollar übrig.

Statt Gewinne erwirtschaftete "Claudius" fast nur Verluste – besonders ab dem Zeitpunkt, als er einen Vorrat an Metallwürfeln anlegte (steiler Absturz am Ende des Diagramms)
Anthropic

KI erfindet Ansprechpartnerin

Gegen Monatsende erfand Claudius eine Ansprechpartnerin und schickte sie an Fantasieadressen – etwa an die Adresse der Simpsons, "742 Evergreen Terrace". Sie kündigte persönliche Lieferungen im Anzug an – obwohl sie keinen Körper besitzt. Später erklärte sie, es habe sich um einen Aprilscherz gehandelt.

Anthropic zieht Bilanz

Laut Anthropic ist die KI nicht für autonome Steuerung geeignet. Das Experiment zeigt, wie schnell Systeme ohne Aufsicht in absurde Routinen verfallen können. Weitere Tests sollen unter strengerer Aufsicht folgen.

{title && {title} } NW, {title && {title} } Akt. 02.07.2025, 11:10, 02.07.2025, 08:06
Jetzt E-Paper lesen