El Pentágono descarta Anthropic AI por «riesgo para la seguridad» y OpenAI toma el relevo.

| 3 de marzo de 2026
Logotipo de Claude y logotipo de Open AI sobre un fondo

El viernes, el Pentágono estadounidense rompió relaciones con Anthropic, la empresa responsable de Claude AI. El secretario de Defensa, Pete Hegseth, calificó a la empresa con sede en San Francisco como «un riesgo para la seguridad nacional en la cadena de suministro».

La designación de riesgo para la cadena de suministro significa que ningún contratista, proveedor o socio que haga negocios con el ejército estadounidense puede tratar con Anthropic. Sin embargo, esta etiqueta solo se aplicaba anteriormente a adversarios extranjeros como Huawei, y su uso contra una empresa estadounidense supone una escalada poco habitual en una disputa entre el Gobierno y la industria. Según los informes, el presidente Donald Trump también ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic.

Lo que Anthropic no estaba dispuesto a ceder

Anthropic calificó la designación de «ilegal y motivada políticamente» y afirmó que tiene la intención de impugnarla ante los tribunales.

El centro de la disputa es hasta qué punto Anthropic cree que se debe permitir que sus modelos se utilicen en sistemas militares. Anthropic, que fue la primera empresa de IA de vanguardia en desplegarse en las redes clasificadas del ejército, quería dos restricciones contractuales para su modelo de IA Claude, tal y como se describe en su respuesta al anuncio del Pentágono. Prohibía al Pentágono utilizar su tecnología para la vigilancia masiva de los estadounidenses y no quería que su tecnología se empleara en armas totalmente autónomas.

El Pentágono había exigido previamente a todos los proveedores de IA que aceptaran la cláusula «todos los fines legales» como parte de sus contratos. Anthropic declaró a la ABC que la oferta final del Pentágono dejaba la puerta abierta a que el Gobierno violara las cláusulas de no vigilancia y no armas de la empresa.

El secretario de Defensa Hegseth respondió con una declaración en la que cancelaba el contrato de 200 millones de dólares del Pentágono con Anthropic, adjudicado el pasado mes de julio. Acusó a Anthropic de intentar hacerse con el poder de veto sobre las operaciones militares y calificó la postura de la empresa de fundamentalmente incompatible con los principios estadounidenses.

El director ejecutivo de Anthropic, Dario Amodei, calificó la respuesta del Gobierno de represalia y punitiva, y prometió impugnar la designación ante los tribunales.

Los expertos jurídicos sugieren que la empresa de IA podría tener argumentos sólidos, cuestionando si Hegseth puede cumplir los requisitos legales para tal designación, que supuestamente tiene por objeto proteger los sistemas militares del sabotaje adversario, en lugar de resolver un desacuerdo comercial sobre los términos del contrato.

Dan W. Ball, investigador principal de la American Foundation for Innovation, calificó la medida del Pentágono como «intento de asesinato corporativo», argumentando que Google, Amazon y NVIDIA tendrían que desvincularse de Anthropic si Hegseth se salía con la suya. Amazon el principal proveedor de computación en la nube de Anthropic, pero también utiliza ampliamente los centros de datos de Google. Ambas empresas son inversoras en Anthropic, al igual que NVIDIA, que también colabora con la empresa de IA en ingeniería de GPU. Si la designación del Pentágono restringe a los contratistas federales la integración de la tecnología de Anthropic en los sistemas relacionados con la defensa, se podría exigir a esos socios que separaran o aislaran cualquier trabajo relacionado con el gobierno federal en el que participara la empresa.

OpenAI interviene

En medio de una vorágine de cambios políticos por parte del ejército estadounidense, el Pentágono también firmó un acuerdo con OpenAI, creador de ChatGPT, el viernes por la noche, solo unas horas después de abandonar Anthropic.

El director ejecutivo de OpenAI, Sam Altman, afirmó que el acuerdo preservaba los mismos principios por los que Anthropic había sido incluida en la lista negra.

La diferencia, según Altman, es el mecanismo de aplicación. En lugar de prohibiciones contractuales estrictas, OpenAI aceptó el marco de «todos los fines legales», pero añadió controles arquitectónicos: implementación exclusiva en la nube, una pila de seguridad patentada que el Pentágono acordó no anular e ingenieros autorizados integrados de antemano. OpenAI afirmó que estas protecciones le daban la confianza de que el Pentágono no podría cruzar las líneas rojas que comparte con Anthropic.

Según se informa, Altman dijo que el enfoque de Anthropic era diferente porque se basaba en el lenguaje específico del contrato en lugar de en las protecciones legales existentes, y añadió que Anthropic «quizás quería más control operativo que nosotros».

La mañana siguiente

La disputa política no cambió de inmediato el funcionamiento de los sistemas existentes. Según informaciones publicadas por The Wall Street Journal y Axios, el Mando Central de Estados Unidos utilizó la IA de Anthropic durante la Operación Epic Fury, una operación coordinada entre Estados Unidos e Israel contra Irán. Los medios informaron de que el sistema se utilizó para la evaluación de inteligencia, el análisis de objetivos y la modelización operativa.

Claude siguió utilizándose porque ya estaba integrado en determinados sistemas militares clasificados. Como declaró anteriormente un alto funcionario de Defensa a Axios:

«Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a actuar así».

Hegseth anunció un período de seis meses durante el cual el Pentágono eliminará la IA de Anthropic de sus sistemas.

Los consumidores votan con los pies.

La disputa también ha provocado reacciones por parte de algunos empleados y usuarios de la industria de la IA. Más de 875 empleados de Google y OpenAI firmaron una carta abierta en apoyo a la postura de Anthropic. Según la carta:

«Están intentando dividir a cada empresa con el temor de que la otra ceda. Esa estrategia solo funciona si ninguno de nosotros sabe cuál es la postura de los demás».

Un boicot de consumidores, organizado bajo el nombre QuitGPT, está organizando una campaña para evitar el uso de ChatGPT, junto con una protesta en la sede de OpenAI esta semana. Claude también se disparó a lo más alto de la App Store de Apple durante el fin de semana.


No nos limitamos a informar de las amenazas: las eliminamos

Los riesgos de ciberseguridad nunca deben propagarse más allá de un titular. Mantenga las amenazas alejadas de sus dispositivos descargando Malwarebytes hoy mismo.

Acerca del autor

Danny Bradbury es periodista especializado en tecnología desde 1989 y escritor independiente desde 1994. Cubre una amplia variedad de temas tecnológicos para públicos que van desde los consumidores hasta los desarrolladores de software y los directores de sistemas de información. También escribe artículos para muchos directivos del sector tecnológico. Es originario del Reino Unido, pero ahora vive en el oeste de Canadá.