Pentagon rezygnuje z Anthropic AI ze względu na „zagrożenie dla bezpieczeństwa”, a OpenAI przejmuje kontrolę

| 3 marca 2026 r.
Logo Claude i logo Open AI na tle

W piątek amerykański Pentagon zerwał współpracę z firmą Anthropic, twórcą sztucznej inteligencji Claude. Sekretarz obrony Pete Hegseth uznał tę firmę z siedzibą w San Francisco za „zagrożenie dla bezpieczeństwa narodowego w zakresie łańcucha dostaw”.

Oznaczenie ryzyka w łańcuchu dostaw oznacza, że żaden wykonawca, dostawca ani partner prowadzący działalność gospodarczą z amerykańskimi siłami zbrojnymi nie może współpracować z firmą Anthropic. Dotychczas oznaczenie to stosowano wyłącznie w odniesieniu do zagranicznych konkurentów, takich jak Huawei, a użycie go wobec amerykańskiej firmy stanowi rzadki przypadek eskalacji sporu między rządem a przemysłem. Według doniesień prezydent Donald Trump nakazał również wszystkim agencjom federalnym zaprzestanie korzystania z technologii firmy Anthropic.

W czym Anthropic nie ustąpił

Anthropic uznał tę decyzję za „bezprawną i motywowaną politycznie” i zapowiedział, że zamierza zaskarżyć ją do sądu.

W centrum sporu znajduje się kwestia, w jakim stopniu firma Anthropic uważa, że jej modele powinny być dopuszczone do stosowania w systemach wojskowych. Anthropic, która była pierwszą firmą zajmującą się sztuczną inteligencją, której rozwiązania zostały wdrożone w tajnych sieciach wojskowych, chciała wprowadzić dwa ograniczenia umowne dotyczące swojego modelu sztucznej inteligencji Claude, jak wskazano w odpowiedzi na ogłoszenie Pentagonu. Zabroniła Pentagonowi wykorzystywania swojej technologii do masowej inwigilacji Amerykanów i nie chciała, aby jej technologia była stosowana w całkowicie autonomicznej broni.

Pentagon wcześniej zażądał, aby wszyscy dostawcy sztucznej inteligencji zgodzili się na sformułowanie „wszelkie zgodne z prawem cele” w swoich umowach. Firma Anthropic poinformowała stację ABC, że ostateczna oferta Pentagonu pozostawia rządowi możliwość naruszenia klauzul dotyczących zakazu inwigilacji i zakazu wykorzystywania broni.

Sekretarz obrony Hegseth odpowiedział oświadczeniem, w którym unieważnił wart 200 mln dolarów kontrakt Anthropic z Pentagonem, przyznany w lipcu ubiegłego roku. Oskarżył Anthropic o próbę przejęcia prawa weta w sprawie operacji wojskowych i uznał stanowisko firmy za zasadniczo niezgodne z amerykańskimi zasadami.

Prezes Anthropic, Dario Amodei, nazwał reakcję rządu odwetową i represyjną oraz obiecał zaskarżyć tę decyzję w sądzie.

Prawnicy sugerują, że firma zajmująca się sztuczną inteligencją może mieć mocne argumenty, kwestionując, czy Hegseth spełnia ustawowe wymagania dotyczące takiego oznaczenia, które rzekomo ma na celu ochronę systemów wojskowych przed sabotażem ze strony przeciwników, a nie rozwiązywanie sporów handlowych dotyczących warunków umowy.

Dan W. Ball, starszy pracownik naukowy w American Foundation for Innovation, nazwał posunięcie Pentagonu „próbą korporacyjnego morderstwa”, argumentując, że Google, Amazon i NVIDIA będą musiały odciąć się od Anthropic, jeśli Hegseth osiągnie swój cel. Amazon głównym dostawcą usług przetwarzania w chmurze dla Anthropic, ale firma ta korzysta również w znacznym stopniu z centrów danych Google. Obie firmy są inwestorami Anthropic, podobnie jak NVIDIA, która współpracuje również z tą firmą zajmującą się sztuczną inteligencją w zakresie inżynierii GPU. Jeśli decyzja Pentagonu ograniczy federalnym kontrahentom możliwość integracji technologii Anthropic z systemami związanymi z obronnością, partnerzy ci mogą zostać zobowiązani do oddzielenia lub wyodrębnienia wszelkich działań związanych z tą firmą, które mają charakter federalny.

OpenAI wkracza do akcji

W wirze zmian polityki amerykańskich sił zbrojnych Pentagon podpisał również w piątek wieczorem umowę z twórcą ChatGPT, firmą OpenAI, zaledwie kilka godzin po zerwaniu współpracy z Anthropic.

Prezes OpenAI, Sam Altman, powiedział, że umowa zachowuje te same zasady, za których obronę firma Anthropic została umieszczona na czarnej liście.

Według Altmana różnica polega na mechanizmie egzekwowania. Zamiast surowych zakazów umownych, OpenAI zaakceptowało ramy „wszystkich zgodnych z prawem celów”, ale nałożyło na nie warstwy kontroli architektonicznej: wdrożenie wyłącznie w chmurze, zastrzeżony stos zabezpieczeń, którego Pentagon zgodził się nie nadpisywać, oraz zatwierdzeni inżynierowie wbudowani z wyprzedzeniem. OpenAI stwierdziło, że dzięki tym zabezpieczeniom firma ma pewność, że Pentagon nie przekroczy czerwonych linii, które dzieli z Anthropic.

Altman podobno stwierdził, że podejście firmy Anthropic różniło się od innych, ponieważ opierało się na konkretnych sformułowaniach umownych, a nie na istniejących zabezpieczeniach prawnych, dodając, że firma Anthropic „być może chciała mieć większą kontrolę operacyjną niż my”.

Następnego dnia rano

Spór dotyczący polityki nie zmienił od razu sposobu działania istniejących systemów. Według doniesień The Wall Street Journal i Axios, Centralne Dowództwo Stanów Zjednoczonych wykorzystało sztuczną inteligencję firmy Anthropic podczas operacji Epic Fury, skoordynowanej operacji amerykańsko-izraelskiej wymierzonej w Iran. Media poinformowały, że system został wykorzystany do oceny wywiadowczej, analizy celów i modelowania operacyjnego.

Claude pozostał w użyciu, ponieważ był już wbudowany w niektóre tajne systemy wojskowe. Jak powiedział wcześniej Axiosowi wysoki rangą urzędnik ds. obrony:

„Rozplątanie tej sytuacji będzie ogromnym utrudnieniem i dopilnujemy, aby ponieśli konsekwencje za zmuszanie nas do takich działań”.

Hegseth ogłosił sześciomiesięczny okres, podczas którego Pentagon usunie sztuczną inteligencję firmy Anthropic ze swoich systemów.

Konsumenci głosują nogami

Spór wywołał również reakcje niektórych pracowników branży AI i użytkowników. Ponad 875 pracowników Google i OpenAI podpisało list otwarty popierający stanowisko Anthropic. Zgodnie z treścią listu:

„Próbują podzielić każdą firmę, wykorzystując obawy, że druga strona ulegnie. Strategia ta działa tylko wtedy, gdy nikt z nas nie wie, jakie stanowisko zajmują pozostali”.

Konsumenci zorganizowali bojkot pod nazwą QuitGPT, w ramach którego prowadzą kampanię mającą na celu uniknięcie korzystania z ChatGPT, a także protest przed siedzibą OpenAI w tym tygodniu. W weekend aplikacja Claude znalazła się na szczycie listy najpopularniejszych aplikacji w sklepie Apple App Store.


Nie tylko informujemy o zagrożeniach - my je usuwamy

Zagrożenia cyberbezpieczeństwa nigdy nie powinny wykraczać poza nagłówek. Chroń swoje urządzenia przed zagrożeniami, pobierając Malwarebytes już dziś.

O autorze

Danny Bradbury jest dziennikarzem specjalizującym się w technologii od 1989 roku i niezależnym pisarzem od 1994 roku. Zajmuje się szeroką gamą zagadnień technologicznych dla odbiorców od konsumentów po twórców oprogramowania i dyrektorów ds. informatyki. Pisze również artykuły dla wielu dyrektorów zarządzających w sektorze technologicznym. Pochodzi z Wielkiej Brytanii, ale obecnie mieszka w zachodniej Kanadzie.