Na sexta-feira, o Pentágono dos EUA cortou relações com a Anthropic, a empresa por trás da Claude AI. O secretário de Defesa Pete Hegseth designou a empresa sediada em São Francisco como um “risco à segurança nacional na cadeia de abastecimento”.
A designação de risco na cadeia de suprimentos significa que nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos EUA pode negociar com a Anthropic. No entanto, esse rótulo era aplicado anteriormente apenas a adversários estrangeiros, como a Huawei, e usá-lo contra uma empresa americana representa uma rara escalada em uma disputa entre o governo e a indústria. De acordo com relatos, o presidente Donald Trump também ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic.
O que a Anthropic não cederia
A Anthropic considerou a designação “ilegal e motivada por razões políticas” e afirmou que pretende contestá-la em tribunal.
No centro da disputa está até que ponto a Anthropic acredita que seus modelos devem ser permitidos dentro dos sistemas militares. A Anthropic, que foi a primeira empresa de IA de ponta implantada nas redes confidenciais das Forças Armadas, queria duas restrições contratuais em seu modelo de IA Claude, conforme descrito em sua resposta ao anúncio do Pentágono. Ela proibiu o Pentágono de usar sua tecnologia para a vigilância doméstica em massa dos americanos e não queria que sua tecnologia fosse empregada em armas totalmente autônomas.
O Pentágono havia exigido anteriormente que todos os fornecedores de IA concordassem com a cláusula “para todos os fins legais” como parte de seus contratos. A Anthropic disse à ABC que a proposta final do Pentágono deixava em aberto a possibilidade de o governo violar as cláusulas de não vigilância e não uso de armas da empresa.
O secretário de Defesa Hegseth respondeu com uma declaração cancelando o contrato de US$ 200 milhões da Anthropic com o Pentágono, concedido em julho passado. Ele acusou a Anthropic de tentar obter poder de veto sobre operações militares e considerou a posição da empresa fundamentalmente incompatível com os princípios americanos.
O CEO da Anthropic, Dario Amodei, considerou a resposta do governo retaliatória e punitiva e prometeu contestar a designação em tribunal.
Os especialistas jurídicos sugerem que a empresa de IA poderia ter um caso forte, questionando se Hegseth pode cumprir os requisitos legais para tal designação, que supostamente se destina a proteger os sistemas militares contra sabotagem adversária, em vez de resolver um desacordo comercial sobre os termos do contrato.
Dan W. Ball, membro sênior da American Foundation for Innovation, chamou a ação do Pentágono de “tentativa de assassinato corporativo”, argumentando que o Google, Amazon e a NVIDIA teriam que se separar da Anthropic se Hegseth conseguisse o que queria. Amazon a principal provedora de computação em nuvem da Anthropic, mas também usa amplamente os data centers do Google. Ambas as empresas são investidoras da Anthropic, assim como a NVIDIA, que também tem parceria com a empresa de IA em engenharia de GPU. Se a designação do Pentágono restringir os contratados federais de integrar a tecnologia da Anthropic em sistemas relacionados à defesa, esses parceiros poderão ser obrigados a separar ou isolar qualquer trabalho voltado para o governo federal que envolva a empresa.
A OpenAI entra em cena
Em meio a uma série de mudanças políticas por parte das Forças Armadas dos EUA, o Pentágono também assinou um acordo com a OpenAI, criadora do ChatGPT, na noite de sexta-feira, poucas horas depois de abandonar a Anthropic.
O CEO da OpenAI, Sam Altman, disse que o acordo preservava os mesmos princípios pelos quais a Anthropic havia sido colocada na lista negra por defender.
A diferença, segundo Altman, é o mecanismo de aplicação. Em vez de proibições contratuais rígidas, a OpenAI aceitou a estrutura de “todos os fins legais”, mas acrescentou controles arquitetônicos: implantação exclusivamente na nuvem, uma pilha de segurança proprietária que o Pentágono concordou em não substituir e engenheiros autorizados incorporados. A OpenAI afirmou que essas proteções deixaram a empresa confiante de que o Pentágono não poderia ultrapassar os limites que compartilha com a Anthropic.
Altman teria dito que a abordagem da Anthropic era diferente porque se baseava em linguagem contratual específica, em vez de proteções legais existentes, acrescentando que a Anthropic “talvez quisesse mais controle operacional do que nós”.
Na manhã seguinte
A disputa política não alterou imediatamente o funcionamento dos sistemas existentes. De acordo com reportagens do The Wall Street Journal e da Axios, o Comando Central dos EUA utilizou a IA da Anthropic durante a Operação Epic Fury, uma operação coordenada entre os EUA e Israel contra o Irã. Os veículos de comunicação informaram que o sistema foi utilizado para avaliação de inteligência, análise de alvos e modelagem operacional.
O Claude continuou em uso porque já estava incorporado em certos sistemas militares confidenciais. Como um alto funcionário da defesa disse anteriormente à Axios:
“Vai ser muito trabalhoso resolver isso, e vamos garantir que eles paguem um preço por nos forçarem a agir dessa maneira.”
Hegseth anunciou um período de seis meses durante o qual o Pentágono irá remover a IA da Anthropic de seus sistemas.
Os consumidores votam com os pés
A disputa também provocou reações de alguns funcionários e usuários da indústria de IA. Mais de 875 funcionários do Google e da OpenAI assinaram uma carta aberta apoiando a posição da Anthropic. De acordo com a carta:
“Eles estão tentando dividir cada empresa com medo de que a outra ceda. Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros.”
Um boicote de consumidores, organizado sob o nome QuitGPT, está organizando uma campanha para evitar o uso do ChatGPT, juntamente com um protesto na sede da OpenAI esta semana. Claude também disparou para o topo da App Store da Apple no fim de semana.
Não nos limitamos a informar sobre as ameaças, nós as removemos
Os riscos de segurança cibernética nunca devem se espalhar além de uma manchete. Mantenha as ameaças longe de seus dispositivos fazendo o download Malwarebytes hoje mesmo.




