Le Pentagone abandonne Anthropic AI en raison d'un « risque pour la sécurité » et OpenAI prend le relais

| 3 mars 2026
Logo Claude et logo Open AI sur fond

Vendredi, le Pentagone américain a rompu ses liens avec Anthropic, la société à l'origine de l'IA Claude. Le secrétaire à la Défense Pete Hegseth a qualifié cette entreprise basée à San Francisco de « risque pour la sécurité nationale en matière de chaîne d'approvisionnement ».

La désignation de risque pour la chaîne d'approvisionnement signifie qu'aucun sous-traitant, fournisseur ou partenaire travaillant avec l'armée américaine ne peut traiter avec Anthropic. Cependant, cette étiquette ne s'appliquait auparavant qu'à des adversaires étrangers tels que Huawei, et son utilisation à l'encontre d'une entreprise américaine marque une rare escalade dans un conflit entre le gouvernement et l'industrie. Selon certaines informations, le président Donald Trump aurait également ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic.

Ce sur quoi Anthropic ne céderait pas

Anthropic a qualifié cette désignation d'« illégale et motivée par des considérations politiques » et a déclaré qu'elle avait l'intention de la contester devant les tribunaux.

Au cœur du litige se trouve la question de savoir jusqu'où Anthropic estime que ses modèles devraient être autorisés à s'immiscer dans les systèmes militaires. Anthropic, qui a été la première entreprise pionnière dans le domaine de l'IA à être déployée sur les réseaux classifiés de l'armée, souhaitait imposer deux restrictions contractuelles à son modèle d'IA Claude, comme indiqué dans sa réponse à l'annonce du Pentagone. Elle interdisait au Pentagone d'utiliser sa technologie pour la surveillance massive des citoyens américains et ne voulait pas que sa technologie soit employée dans des armes entièrement autonomes.

Le Pentagone avait précédemment exigé que tous les fournisseurs d'IA acceptent d'inclure la mention « à toutes fins légales » dans leurs contrats. Anthropic a déclaré à ABC que la proposition finale du Pentagone laissait la porte ouverte à une violation par le gouvernement des clauses de non-surveillance et de non-utilisation à des fins militaires de l'entreprise.

Le secrétaire à la Défense Hegseth a répondu par une déclaration annulant le contrat de 200 millions de dollars conclu entre Anthropic et le Pentagone en juillet dernier. Il a accusé Anthropic de tenter de s'arroger un droit de veto sur les opérations militaires et a qualifié la position de l'entreprise de fondamentalement incompatible avec les principes américains.

Le PDG d'Anthropic, Dario Amodei, a qualifié la réponse du gouvernement de représailles et de sanction, et a promis de contester cette décision devant les tribunaux.

Les juristes suggèrent que l'entreprise d'IA pourrait avoir de solides arguments à faire valoir, remettant en question la capacité de Hegseth à satisfaire aux exigences légales pour une telle désignation, qui serait destinée à protéger les systèmes militaires contre le sabotage adverse plutôt qu'à résoudre un différend commercial portant sur les termes d'un contrat.

Dan W. Ball, chercheur principal à l'American Foundation for Innovation, a qualifié la décision du Pentagone de « tentative de meurtre d'entreprise », arguant que Google, Amazon et NVIDIA devraient se détacher d'Anthropic si Hegseth parvenait à ses fins. Amazon le principal fournisseur de cloud computing d'Anthropic, mais l'entreprise utilise également largement les centres de données de Google. Les deux sociétés sont des investisseurs dans Anthropic, tout comme NVIDIA, qui est également partenaire de l'entreprise d'IA dans le domaine de l'ingénierie des GPU. Si la décision du Pentagone empêche les sous-traitants fédéraux d'intégrer la technologie Anthropic dans les systèmes liés à la défense, ces partenaires pourraient être tenus de séparer ou de cloisonner tout travail impliquant l'entreprise et destiné au gouvernement fédéral.

OpenAI intervient

Dans un tourbillon de changements politiques au sein de l'armée américaine, le Pentagone a également signé un accord avec OpenAI, le créateur de ChatGPT, vendredi soir, quelques heures seulement après avoir abandonné Anthropic.

Le PDG d'OpenAI, Sam Altman, a déclaré que l'accord préservait les mêmes principes que ceux pour lesquels Anthropic avait été mis sur liste noire.

Selon Altman, la différence réside dans le mécanisme d'application. Au lieu d'imposer des interdictions contractuelles strictes, OpenAI a accepté le cadre « à toutes fins légales », mais a ajouté des contrôles architecturaux : déploiement exclusivement dans le cloud, pile de sécurité propriétaire que le Pentagone a accepté de ne pas outrepasser, et ingénieurs agréés intégrés en amont. OpenAI a déclaré que ces protections lui donnaient l'assurance que le Pentagone ne franchirait pas les lignes rouges qu'il partage avec Anthropic.

Altman aurait déclaré que l'approche d'Anthropic était différente, car elle s'appuyait sur des clauses contractuelles spécifiques plutôt que sur les protections juridiques existantes, ajoutant qu'Anthropic « souhaitait peut-être exercer un contrôle opérationnel plus important que nous ».

Le lendemain matin

Ce différend politique n'a pas immédiatement modifié le fonctionnement des systèmes existants. Selon des informations publiées par le Wall Street Journal et Axios, le Commandement central américain a utilisé l'IA d'Anthropic lors de l'opération Epic Fury, une opération coordonnée entre les États-Unis et Israël visant l'Iran. Les médias ont rapporté que le système avait été utilisé pour l'évaluation des renseignements, l'analyse des cibles et la modélisation opérationnelle.

Claude est resté en service car il était déjà intégré dans certains systèmes militaires classifiés. Comme l'a précédemment déclaré un haut responsable de la défense à Axios:

« Ce sera extrêmement pénible à démêler, et nous veillerons à ce qu'ils paient le prix fort pour nous avoir mis dans cette situation. »

Hegseth a annoncé une période de six mois pendant laquelle le Pentagone retirera l'IA d'Anthropic de ses systèmes.

Les consommateurs votent avec leurs pieds

Ce différend a également suscité des réactions de la part de certains employés et utilisateurs du secteur de l'IA. Plus de 875 employés de Google et d'OpenAI ont signé une lettre ouverte soutenant la position d'Anthropic. Selon cette lettre :

« Ils essaient de diviser chaque entreprise en craignant que l'autre ne cède. Cette stratégie ne fonctionne que si aucun d'entre nous ne connaît la position des autres. »

Un boycott des consommateurs, organisé sous le nom de QuitGPT, mène une campagne visant à éviter l'utilisation de ChatGPT, ainsi qu'une manifestation devant le siège social d'OpenAI cette semaine. Claude s'est également hissé en tête du classement de l'App Store d'Apple au cours du week-end.


Nous ne nous contentons pas de signaler les menaces, nous les éliminons.

Les risques de cybersécurité ne devraient jamais se propager au-delà d'un titre. Éliminez les menaces de vos appareils en téléchargeant Malwarebytes dès aujourd'hui.

À propos de l'auteur

Danny Bradbury est journaliste spécialisé dans les technologies depuis 1989 et rédacteur indépendant depuis 1994. Il couvre un large éventail de questions technologiques pour des publics allant des consommateurs aux développeurs de logiciels et aux directeurs informatiques. Il rédige également des articles pour de nombreux cadres supérieurs du secteur technologique. Originaire du Royaume-Uni, il vit aujourd'hui dans l'ouest du Canada.