Chatbot für Militärnutzung

Knallhartes Ultimatum: Pentagon droht KI-Entwickler

Das Pentagon hat der KI-Firma Anthropic ein knallhartes Ultimatum gestellt. Stimmt es der Militärnutzung nicht zu, drohen drastische Schritte.
Lara Heisinger
25.02.2026, 09:12
Hör dir den Artikel an:
00:00 / 02:45
1X
BotTalk
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Das US-Verteidigungsministerium setzt das Unternehmen Anthropic unter Druck. Bis Freitag soll der Entwickler des KI-Chatbots Claude einer uneingeschränkten militärischen Nutzung seiner Technologie zustimmen.

Ein ranghoher Pentagon-Vertreter erklärte am Dienstag, Anthropic habe dafür bis 17.01 Uhr (Ortszeit) Zeit. Sollte das Unternehmen nicht einlenken, werde das Pentagon vom Defense Production Act Gebrauch machen. Das Gesetz aus der Zeit des Kalten Krieges erlaubt es der US-Regierung, Firmen zu verpflichten, nationale Sicherheitsinteressen vorrangig zu bedienen.

Streit um militärische Nutzung

Anthropic weigert sich bislang, seinen Chatbot Claude für die Massenüberwachung von US-Bürgern oder für vollautonome Waffensysteme freizugeben.

Am Dienstag traf Geschäftsführer Dario Amodei US-Verteidigungsminister Pete Hegseth im Pentagon persönlich. Laut Unternehmen brachte Amodei seine "Wertschätzung für die Arbeit des Ministeriums zum Ausdruck und dankte dem Minister für seinen Dienst".

Anthropic erklärte zudem, man habe "in gutem Glauben Gespräche über unsere Nutzungsrichtlinien geführt, um sicherzustellen, dass Anthropic die nationale Sicherheitsmission der Regierung weiterhin im Einklang mit dem unterstützen kann, was unsere Modelle zuverlässig und verantwortungsbewusst leisten können".

Ultimatum gestellt

Unmittelbar nach dem Treffen veröffentlichte das Pentagon das Ultimatum. Zusätzlich drohte das Ministerium, Anthropic als Risiko für die Lieferkette einzustufen – eine Bezeichnung, die üblicherweise Unternehmen aus Staaten vorbehalten ist, die als Gegner der USA gelten. Eine solche Einstufung könnte sowohl die Zusammenarbeit mit der Regierung als auch den Ruf des Unternehmens erheblich beeinträchtigen.

Der Pentagon-Vertreter wies die Bedenken des Unternehmens gegen eine militärische Nutzung der KI zurück. Das Verteidigungsministerium habe stets im Rahmen des Gesetzes gehandelt.

ChatGPT-Konkurrent

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet. Während OpenAI mit ChatGPT weltweit bekannt wurde, richtet sich Anthropic mit seinem Chatbot Claude vor allem an Programmierer und Unternehmen, für die Datensicherheit eine zentrale Rolle spielt.

{title && {title} } LH, {title && {title} } Akt. 25.02.2026, 10:26, 25.02.2026, 09:12
Jetzt E-Paper lesen