Na sexta-feira, o Pentágono dos EUA cortou relações com a Anthropic, a empresa por trás da Claude AI. O secretário de Defesa Pete Hegseth designou a empresa sediada em São Francisco como um «risco à segurança nacional na cadeia de abastecimento».
A designação de risco na cadeia de abastecimento significa que nenhum empreiteiro, fornecedor ou parceiro que faça negócios com as Forças Armadas dos EUA pode negociar com a Anthropic. No entanto, esse rótulo era aplicado anteriormente apenas a adversários estrangeiros, como a Huawei, e usá-lo contra uma empresa norte-americana marca uma rara escalada na disputa entre o governo e a indústria. De acordo com relatos, o presidente Donald Trump também ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic.
O que a Anthropic não cederia
A Anthropic considerou a designação «ilegal e motivada por razões políticas» e afirmou que tenciona contestá-la em tribunal.
No centro da disputa está até que ponto a Anthropic acredita que os seus modelos devem ser permitidos dentro dos sistemas militares. A Anthropic, que foi a primeira empresa pioneira em IA implantada nas redes confidenciais das forças armadas, queria duas restrições contratuais ao seu modelo de IA Claude, conforme descrito na sua resposta ao anúncio do Pentágono. Ela proibiu o Pentágono de usar a sua tecnologia para a vigilância doméstica em massa dos americanos e não queria que a sua tecnologia fosse empregada em armas totalmente autónomas.
O Pentágono havia exigido anteriormente que todos os fornecedores de IA concordassem com a cláusula de «todos os fins legais» como parte dos seus contratos. A Anthropic disse à ABC que a proposta final do Pentágono deixava em aberto a possibilidade de o governo violar as cláusulas de não vigilância e não uso de armas da empresa.
O secretário de Defesa Hegseth respondeu com uma declaração cancelando o contrato de US$ 200 milhões da Anthropic com o Pentágono, concedido em julho passado. Ele acusou a Anthropic de tentar obter poder de veto sobre operações militares e considerou a posição da empresa fundamentalmente incompatível com os princípios americanos.
O CEO da Anthropic, Dario Amodei, considerou a resposta do governo retaliatória e punitiva e prometeu contestar a designação em tribunal.
Os juristas sugerem que a empresa de IA poderia ter um caso forte, questionando se Hegseth pode cumprir os requisitos legais para tal designação, que supostamente se destina a proteger os sistemas militares contra sabotagem adversária, em vez de resolver uma disputa comercial sobre os termos do contrato.
Dan W. Ball, membro sênior da American Foundation for Innovation, chamou a ação do Pentágono de “tentativa de assassinato corporativo”, argumentando que o Google, Amazon e a NVIDIA teriam que se separar da Anthropic se Hegseth conseguisse o que queria. Amazon a principal fornecedora de computação em nuvem da Anthropic, mas também utiliza amplamente os centros de dados do Google. Ambas as empresas são investidoras da Anthropic, assim como a NVIDIA, que também tem parceria com a empresa de IA em engenharia de GPU. Se a designação do Pentágono restringir os contratantes federais de integrar a tecnologia da Anthropic em sistemas relacionados à defesa, esses parceiros poderão ser obrigados a separar ou isolar qualquer trabalho voltado para o governo federal que envolva a empresa.
A OpenAI entra em cena
Numa série de mudanças políticas por parte das forças armadas dos EUA, o Pentágono também assinou um acordo com a OpenAI, criadora do ChatGPT, na sexta-feira à noite, poucas horas depois de abandonar a Anthropic.
O CEO da OpenAI, Sam Altman, disse que o acordo preservava os mesmos princípios pelos quais a Anthropic havia sido colocada na lista negra por defender.
A diferença, segundo Altman, está no mecanismo de aplicação. Em vez de proibições contratuais rígidas, a OpenAI aceitou a estrutura de «todos os fins legais», mas acrescentou controlos arquitetónicos: implementação apenas na nuvem, uma pilha de segurança proprietária que o Pentágono concordou em não substituir e engenheiros autorizados incorporados. A OpenAI afirmou que estas proteções deixaram a empresa confiante de que o Pentágono não poderia ultrapassar os limites que partilha com a Anthropic.
Altman teria dito que a abordagem da Anthropic era diferente porque se baseava em linguagem contratual específica, em vez de proteções legais existentes, acrescentando que a Anthropic «talvez quisesse mais controlo operacional do que nós».
Na manhã seguinte
A disputa política não alterou imediatamente o funcionamento dos sistemas existentes. De acordo com reportagens do The Wall Street Journal e da Axios, o Comando Central dos EUA utilizou a IA da Anthropic durante a Operação Epic Fury, uma operação coordenada entre os EUA e Israel contra o Irão. Os veículos de comunicação informaram que o sistema foi utilizado para avaliação de inteligência, análise de alvos e modelagem operacional.
O Claude continuou a ser utilizado porque já estava integrado em determinados sistemas militares confidenciais. Como um alto funcionário da defesa disse anteriormente à Axios:
“Vai ser muito trabalhoso resolver isso, e vamos garantir que eles paguem um preço por nos forçarem a agir assim.”
Hegseth anunciou um período de seis meses durante o qual o Pentágono irá remover a IA da Anthropic dos seus sistemas.
Os consumidores votam com os pés
A disputa também provocou reações de alguns funcionários e utilizadores da indústria de IA. Mais de 875 funcionários do Google e da OpenAI assinaram uma carta aberta apoiando a posição da Anthropic. De acordo com a carta:
«Eles estão a tentar dividir cada empresa com medo de que a outra ceda. Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros.»
Um boicote de consumidores, organizado sob o nome QuitGPT, está a organizar uma campanha para evitar o uso do ChatGPT, juntamente com um protesto na sede da OpenAI esta semana. Claude também disparou para o topo da App Store da Apple no fim de semana.
Não nos limitamos a comunicar as ameaças - eliminamo-las
Os riscos de cibersegurança nunca se devem propagar para além de uma manchete. Mantenha as ameaças longe dos seus dispositivos descarregando Malwarebytes hoje mesmo.




