Pentagon verzichtet wegen „Sicherheitsrisiko“ auf Anthropic AI und OpenAI übernimmt

| 3. März 2026
Claude-Logo und Open AI-Logo auf einem Hintergrund

Am Freitag hat das US-Verteidigungsministerium die Beziehungen zu Anthropic, dem Unternehmen hinter Claude AI, abgebrochen. Verteidigungsminister Pete Hegseth bezeichnete das in San Francisco ansässige Unternehmen als „Risiko für die nationale Sicherheit in der Lieferkette“.

Die Einstufung als Risiko für die Lieferkette bedeutet, dass kein Auftragnehmer, Lieferant oder Partner, der mit dem US-Militär Geschäfte macht, mit Anthropic zusammenarbeiten darf. Bislang wurde diese Einstufung jedoch nur für ausländische Konkurrenten wie Huawei verwendet, und ihre Anwendung auf ein US-Unternehmen stellt eine seltene Eskalation in einem Streit zwischen Regierung und Industrie dar. Berichten zufolge hat Präsident Donald Trump außerdem alle Bundesbehörden angewiesen, die Nutzung der Technologie von Anthropic einzustellen.

Was Anthropic nicht aufgeben würde

Anthropic bezeichnete die Entscheidung als „rechtswidrig und politisch motiviert“ und kündigte an, sie vor Gericht anzufechten.

Im Mittelpunkt der Auseinandersetzung steht die Frage, inwieweit Anthropic der Meinung ist, dass seine Modelle in militärischen Systemen eingesetzt werden dürfen. Anthropic, das erste KI-Unternehmen, das in den geheimen Netzwerken des Militärs eingesetzt wurde, wollte zwei vertragliche Einschränkungen für sein KI-Modell Claude, wie aus seiner Antwort auf die Ankündigung des Pentagon hervorgeht. Es verbot dem Pentagon, seine Technologie für die massenhafte Überwachung der amerikanischen Bevölkerung zu nutzen, und wollte nicht, dass seine Technologie in vollautonomen Waffen eingesetzt wird.

Das Pentagon hatte zuvor gefordert, dass alle KI-Anbieter sich im Rahmen ihrer Verträge zur Formulierung „alle rechtmäßigen Zwecke“ verpflichten. Anthropic erklärte gegenüber ABC, dass das endgültige Angebot des Pentagons der Regierung die Möglichkeit offenließ, gegen die Klauseln des Unternehmens zum Verzicht auf Überwachung und Waffen zu verstoßen.

Verteidigungsminister Hegseth reagierte mit einer Erklärung, in der er den im Juli letzten Jahres vergebenen Pentagon-Auftrag im Wert von 200 Millionen Dollar an Anthropic kündigte. Er warf Anthropic vor, die Kontrolle über militärische Operationen an sich reißen zu wollen, und bezeichnete die Position des Unternehmens als grundsätzlich unvereinbar mit den amerikanischen Grundsätzen.

Der CEO von Anthropic, Dario Amodei, bezeichnete die Reaktion der Regierung als Vergeltungsmaßnahme und Strafmaßnahme und versprach, die Einstufung vor Gericht anzufechten.

Rechtswissenschaftler weisen darauf hin, dass das KI-Unternehmen gute Argumente vorbringen könnte, indem es in Frage stellt, ob Hegseth die gesetzlichen Anforderungen für eine solche Einstufung erfüllen kann, die angeblich dazu dient, militärische Systeme vor Sabotage durch Gegner zu schützen, und nicht dazu, kommerzielle Streitigkeiten über Vertragsbedingungen beizulegen.

Dan W. Ball, Senior Fellow bei der American Foundation for Innovation, bezeichnete den Schritt des Pentagon als „versuchten Unternehmensmord“ und argumentierte, dass Google, Amazon und NVIDIA sich von Anthropic trennen müssten, wenn Hegseth sich durchsetzen würde. Amazon der wichtigste Cloud-Computing-Anbieter von Anthropic, nutzt aber auch in großem Umfang die Rechenzentren von Google. Beide Unternehmen sind Investoren von Anthropic, ebenso wie NVIDIA, das auch im Bereich GPU-Engineering mit dem KI-Unternehmen zusammenarbeitet. Wenn die Entscheidung des Pentagon dazu führt, dass Auftragnehmer der Bundesregierung die Technologie von Anthropic nicht mehr in verteidigungsbezogene Systeme integrieren dürfen, könnten diese Partner verpflichtet werden, alle Arbeiten für die Bundesregierung, an denen das Unternehmen beteiligt ist, auszugliedern oder abzugrenzen.

OpenAI schaltet sich ein

Inmitten einer Flut von politischen Kurswechseln des US-Militärs unterzeichnete das Pentagon am Freitagabend, nur wenige Stunden nach der Trennung von Anthropic, auch einen Vertrag mit OpenAI, dem Entwickler von ChatGPT.

Sam Altman, CEO von OpenAI, sagte, dass die Vereinbarung dieselben Prinzipien bewahre, für deren Verteidigung Anthropic auf die schwarze Liste gesetzt worden sei.

Der Unterschied liegt laut Altman im Durchsetzungsmechanismus. Anstelle von strengen vertraglichen Verboten akzeptierte OpenAI den Rahmen „alle rechtmäßigen Zwecke”, fügte jedoch architektonische Kontrollen hinzu: ausschließlich Cloud-basierte Bereitstellung, ein proprietärer Sicherheitsstack, den das Pentagon nicht außer Kraft setzen darf, und vorab geprüfte Ingenieure. OpenAI erklärte, dass diese Schutzmaßnahmen das Unternehmen zuversichtlich machten, dass das Pentagon die roten Linien, die es mit Anthropic teilt, nicht überschreiten könne.

Altman sagte Berichten zufolge, dass sich der Ansatz von Anthropic dadurch unterscheide, dass er sich auf spezifische Vertragsformulierungen statt auf bestehende rechtliche Schutzmaßnahmen stütze, und fügte hinzu, dass Anthropic „möglicherweise mehr operative Kontrolle wollte als wir“.

Der Morgen danach

Der politische Streit hatte keine unmittelbaren Auswirkungen auf die Funktionsweise der bestehenden Systeme. Laut Berichten des Wall Street Journal und von Axios setzte das US-Zentralkommando die KI von Anthropic während der Operation Epic Fury ein, einer koordinierten US-amerikanisch-israelischen Operation gegen den Iran. Die Medien berichteten, dass das System für die Auswertung von Geheimdienstinformationen, die Analyse von Zielen und die operative Modellierung verwendet wurde.

Claude blieb weiterhin im Einsatz, da es bereits in bestimmte geheime Militärsysteme integriert war. Wie ein hochrangiger Verteidigungsbeamter zuvor gegenüber Axios erklärte:

„Es wird enorm mühsam sein, das zu entwirren, und wir werden dafür sorgen, dass sie dafür bezahlen, dass sie uns so unter Druck gesetzt haben.“

Hegseth kündigte einen Zeitraum von sechs Monaten an, in dem das Pentagon die KI von Anthropic aus seinen Systemen entfernen wird.

Verbraucher stimmen mit den Füßen ab

Der Streit hat auch Reaktionen von einigen Mitarbeitern und Nutzern der KI-Branche ausgelöst. Mehr als 875 Mitarbeiter von Google und OpenAI unterzeichneten einen offenen Brief, in dem sie die Haltung von Anthropic unterstützten. In dem Brief heißt es:

„Sie versuchen, jedes Unternehmen zu spalten, indem sie Angst schüren, dass die anderen nachgeben könnten. Diese Strategie funktioniert nur, wenn keiner von uns weiß, wo die anderen stehen.“

Unter dem Namen „QuitGPT“ organisiert eine Verbrauchergruppe eine Kampagne, um die Nutzung von ChatGPT zu vermeiden, sowie eine Protestaktion vor dem Hauptsitz von OpenAI in dieser Woche. Claude schoss am Wochenende auch an die Spitze des Apple App Stores.


Wir berichten nicht nur über Bedrohungen - wir beseitigen sie

Cybersecurity-Risiken sollten nie über eine Schlagzeile hinausgehen. Laden Sie noch heute Malwarebytes herunter, um Bedrohungen von Ihren Geräten fernzuhalten.

Über den Autor

Danny Bradbury ist seit 1989 Journalist mit Schwerpunkt Technologie und seit 1994 freiberuflicher Autor. Er berichtet über eine breite Palette von Technologiethemen für ein Publikum, das von Verbrauchern bis hin zu Softwareentwicklern und CIOs reicht. Er schreibt auch Ghostwriting-Artikel für viele Führungskräfte im Technologiesektor. Er stammt aus dem Vereinigten Königreich, lebt aber jetzt in Westkanada.