Il Pentagono abbandona Anthropic AI per "rischi alla sicurezza" e OpenAI prende il suo posto

| 3 marzo 2026
Logo Claude e logo Open AI su sfondo

Venerdì il Pentagono statunitense ha interrotto i rapporti con Anthropic, la società che ha sviluppato Claude AI. Il segretario alla Difesa Pete Hegseth ha definito l'azienda con sede a San Francisco un "rischio per la sicurezza nazionale nella catena di approvvigionamento".

La designazione di rischio per la catena di approvvigionamento significa che nessun appaltatore, fornitore o partner che intrattiene rapporti commerciali con l'esercito statunitense può avere rapporti con Anthropic. Tuttavia, tale etichetta era stata applicata in precedenza solo ad avversari stranieri come Huawei, e il suo utilizzo contro un'azienda statunitense segna una rara escalation nella disputa tra governo e industria. Secondo quanto riportato, il presidente Donald Trump ha anche ordinato a tutte le agenzie federali di smettere di utilizzare la tecnologia di Anthropic.

Su cosa Anthropic non avrebbe ceduto

Anthropic ha definito la designazione "illegale e motivata politicamente" e ha dichiarato che intende contestarla in tribunale.

Al centro della controversia c'è la questione di quanto Anthropic ritenga che i propri modelli debbano essere autorizzati ad accedere ai sistemi militari. Anthropic, la prima azienda di IA di frontiera ad essere stata implementata nelle reti riservate dell'esercito, voleva due restrizioni contrattuali sul proprio modello di IA Claude, come indicato nella sua risposta all'annuncio del Pentagono. Ha vietato al Pentagono di utilizzare la propria tecnologia per la sorveglianza di massa degli americani e non ha voluto che la propria tecnologia fosse impiegata in armi completamente autonome.

Il Pentagono aveva precedentemente richiesto a tutti i fornitori di IA di accettare la clausola relativa agli "scopi legittimi" nei loro contratti. Anthropic ha dichiarato alla ABC che l'offerta finale del Pentagono lasciava aperta la possibilità che il governo violasse le clausole di non sorveglianza e non utilizzo di armi della società.

Il segretario alla Difesa Hegseth ha risposto con una dichiarazione in cui annullava il contratto da 200 milioni di dollari stipulato lo scorso luglio tra Anthropic e il Pentagono. Ha accusato Anthropic di tentare di ottenere il potere di veto sulle operazioni militari e ha definito la posizione dell'azienda fondamentalmente incompatibile con i principi americani.

Il CEO di Anthropic, Dario Amodei, ha definito la risposta del governo una ritorsione punitiva e ha promesso di contestare la designazione in tribunale.

Gli studiosi di diritto suggeriscono che l'azienda di intelligenza artificiale potrebbe avere ottime possibilità di vincere la causa, mettendo in dubbio che Hegseth possa soddisfare i requisiti legali per tale designazione, che secondo quanto affermato avrebbe lo scopo di proteggere i sistemi militari da sabotaggi ostili piuttosto che risolvere una controversia commerciale sui termini contrattuali.

Dan W. Ball, senior fellow presso l'American Foundation for Innovation, ha definito la mossa del Pentagono un "tentato omicidio aziendale", sostenendo che Google, Amazon e NVIDIA dovrebbero staccarsi da Anthropic se Hegseth riuscisse a ottenere ciò che vuole. Amazon il principale fornitore di cloud computing di Anthropic, ma utilizza anche ampiamente i data center di Google. Entrambe le società sono investitori in Anthropic, così come NVIDIA, che collabora con l'azienda di IA anche nell'ingegneria delle GPU. Se la designazione del Pentagono impedisse agli appaltatori federali di integrare la tecnologia Anthropic nei sistemi legati alla difesa, tali partner potrebbero essere obbligati a separare o isolare qualsiasi attività rivolta al governo federale che coinvolga l'azienda.

OpenAI interviene

In un vortice di cambiamenti politici da parte dell'esercito statunitense, venerdì sera il Pentagono ha anche firmato un accordo con OpenAI, creatore di ChatGPT, poche ore dopo aver abbandonato Anthropic.

Il CEO di OpenAI Sam Altman ha affermato che l'accordo ha preservato gli stessi principi per cui Anthropic era stata inserita nella lista nera.

La differenza, secondo Altman, sta nel meccanismo di applicazione. Anziché ricorrere a rigidi divieti contrattuali, OpenAI ha accettato il quadro normativo "per tutti gli scopi legittimi", ma ha aggiunto una serie di controlli architettonici: implementazione esclusivamente su cloud, uno stack di sicurezza proprietario che il Pentagono ha accettato di non sovrascrivere e ingegneri autorizzati integrati in anticipo. OpenAI ha affermato che queste protezioni hanno rassicurato l'azienda sul fatto che il Pentagono non avrebbe potuto oltrepassare i limiti condivisi con Anthropic.

Secondo quanto riferito, Altman avrebbe affermato che l'approccio di Anthropic era diverso perché si basava su una formulazione contrattuale specifica piuttosto che sulle tutele legali esistenti, aggiungendo che Anthropic "potrebbe aver voluto un controllo operativo maggiore rispetto a noi".

Il mattino dopo

La controversia politica non ha modificato immediatamente il funzionamento dei sistemi esistenti. Secondo quanto riportato dal Wall Street Journal e da Axios, il Comando Centrale degli Stati Uniti ha utilizzato l'IA di Anthropic durante l'operazione Epic Fury, un'operazione coordinata tra Stati Uniti e Israele contro l'Iran. I media hanno riferito che il sistema è stato utilizzato per la valutazione delle informazioni di intelligence, l'analisi degli obiettivi e la modellizzazione operativa.

Claude è rimasto in uso perché era già integrato in alcuni sistemi militari classificati. Come ha dichiarato in precedenza un alto funzionario della difesa ad Axios:

"Sarà una seccatura enorme districare la situazione, e faremo in modo che paghino un prezzo per averci costretto a questa mossa."

Hegseth ha annunciato un periodo di sei mesi durante il quale il Pentagono rimuoverà l'IA di Anthropic dai propri sistemi.

I consumatori votano con i piedi

La controversia ha suscitato anche le reazioni di alcuni dipendenti e utenti del settore dell'intelligenza artificiale. Più di 875 dipendenti di Google e OpenAI hanno firmato una lettera aperta a sostegno della posizione di Anthropic. Secondo la lettera:

"Stanno cercando di dividere ogni azienda con il timore che l'altra ceda. Questa strategia funziona solo se nessuno di noi conosce la posizione degli altri".

Un boicottaggio dei consumatori, organizzato con il nome QuitGPT, sta organizzando una campagna per evitare l'uso di ChatGPT, insieme a una protesta presso la sede centrale di OpenAI questa settimana. Claude è anche balzato in cima all'App Store di Apple durante il fine settimana.


Non ci limitiamo a segnalare le minacce, ma le eliminiamo.

I rischi per la sicurezza informatica non dovrebbero mai diffondersi al di là di un titolo di giornale. Tenete le minacce lontane dai vostri dispositivi scaricando Malwarebytes oggi stesso.

Informazioni sull'autore

Danny Bradbury è giornalista specializzato in tecnologia dal 1989 e scrittore freelance dal 1994. Si occupa di un'ampia gamma di argomenti tecnologici per un pubblico che va dai consumatori agli sviluppatori di software e ai CIO. Inoltre, scrive articoli per molti dirigenti del settore tecnologico. È originario del Regno Unito, ma ora vive nel Canada occidentale.