Im Mittelpunkt stehen dabei Regeln für den Einsatz der künstlichen Intelligenz. Wie 20 Minuten berichtet, wurden dabei wichtige Sicherheitsvereinbarungen getroffen.
OpenAI-Chef Sam Altman erklärte am Freitag auf X, dass sogenannte "technische Sicherheitsvorkehrungen" Teil der Vereinbarung seien. "Zwei unserer wichtigsten Sicherheitsgrundsätze sind das Verbot der Massenüberwachung im Inland und die menschliche Verantwortung für die Anwendung von Gewalt, auch bei autonomen Waffensystemen." Laut Altman sind diese Grundsätze fix in das Abkommen mit dem Pentagon eingebaut.
Nur wenige Stunden vor der OpenAI-Meldung ist der Streit zwischen dem KI-Unternehmen Anthropic und der US-Regierung eskaliert. Anthropic hatte ähnliche rote Linien wie OpenAI gezogen und sich gegen eine uneingeschränkte Nutzung seiner Technologie durch das US-Militär ausgesprochen. Laut 20 Minuten hat US-Präsident Donald Trump noch am Freitag alle Behörden angewiesen, ab sofort keine Anthropic-Anwendungen mehr zu verwenden.
Das Unternehmen hinter dem Chatbot Claude verweigerte dem Pentagon ausdrücklich, seine Technologie für die "Massenüberwachung im Inland" oder in vollautonomen Waffensystemen einzusetzen. Damit stellte sich Anthropic gegen die Wünsche der Trump-Regierung.
US-Kriegsminister Pete Hegseth, der dieses Amt seit September ausübt, warf Anthropic "Arroganz und Verrat" vor. Er ordnete an, Anthropic als "Sicherheitsrisiko in der Lieferkette" einzustufen. Ab sofort darf kein Unternehmen, das mit dem US-Militär Geschäfte macht, kommerzielle Beziehungen zu Anthropic pflegen.
Anthropic will sich gegen das Verbot wehren und kündigte eine Klage an. "Keine Einschüchterung oder Strafe seitens des Kriegsministeriums wird unsere Haltung zu massiver Überwachung im Inland oder vollständig autonomen Waffen ändern", so das Unternehmen.
Anthropic wurde 2021 von Ex-Mitarbeitern von OpenAI gegründet. Während OpenAI mit ChatGPT weltweit bekannt wurde, richtet sich Anthropic mit seinem Chatbot Claude eher an Programmierer und Firmen, die besonderen Wert auf Datensicherheit legen.