Anthropic entra in rotta di collisione con il Pentagono in una vicenda che appare tecnica ma che, secondo Michael Horowitz, affonda le radici in politica, personalità e rapporti di forza tra Silicon Valley e apparato della difesa americana. Al centro dello scontro c’è l’uso di Claude in programmi militari classificati e la richiesta del Dipartimento della Difesa di rendere i modelli disponibili per tutti gli usi leciti previsti dal governo. La disputa ora va ben oltre il linguaggio dei contratti. Il caso è diventato uno dei confronti più significativi del 2026 sul rapporto tra aziende di intelligenza artificiale e sicurezza nazionale statunitense. Reuters ha ricostruito che il braccio di ferro è esploso dopo il rifiuto di Anthropic di allentare alcune barriere d’uso sui propri sistemi, mentre il Pentagono ha reagito arrivando a classificare l’azienda come rischio di supply chain e a ordinare una graduale uscita dai suoi strumenti in sei mesi. In parallelo, una giudice federale ha messo in dubbio che la misura fosse davvero motivata dalla sicurezza nazionale e non piuttosto da un intento punitivo.
Cosa leggere
Michael Horowitz lega il conflitto tra Anthropic e Pentagono a politica e personalità
La lettura di Michael Horowitz, emersa in un suo intervento pubblico rilanciato online, è che la disputa non sia soltanto un confronto giuridico o tecnico sulle policy, ma un conflitto aggravato da dinamiche politiche e personali. Questa interpretazione non elimina il dissenso sostanziale, ma lo contestualizza: da una parte c’è un laboratorio che vuole fissare linee rosse etiche sull’uso della propria AI, dall’altra un Dipartimento della Difesa che pretende clausole standard e disponibilità operativa piena entro i limiti della legge. In altre parole, la frizione non nasce nel vuoto. Arriva dopo mesi in cui Anthropic ha accettato di lavorare su progetti sensibili e classificati, diventando uno dei primi grandi laboratori di frontiera a entrare così in profondità nel perimetro della difesa americana. Proprio questo protagonismo ha alzato la posta: quando un’azienda del peso di Anthropic chiede restrizioni specifiche, il gesto ha un valore politico oltre che contrattuale. Ed è qui che il dissenso si trasforma in caso nazionale.
La clausola sugli usi leciti diventa il nodo dei nuovi contratti AI
Il cuore operativo dello scontro riguarda la formula che il governo vorrebbe imporre nei contratti futuri: l’idea che i sistemi debbano essere disponibili per “any lawful purpose” o “all lawful uses”, cioè per ogni uso ritenuto lecito dall’amministrazione. Secondo diverse ricostruzioni, il Dipartimento della Difesa considera questa richiesta una naturale estensione del modo in cui acquisisce altre tecnologie strategiche. Anthropic, invece, teme che una formula così ampia cancelli in pratica la possibilità di mantenere guardrail sostanziali sui modelli. Questo passaggio segna un punto cruciale per tutto il settore. Se la clausola diventasse uno standard di fatto, non riguarderebbe solo Anthropic ma tutti i vendor AI interessati a lavorare con agenzie federali e difesa. La questione non è soltanto legale: definisce chi controlla davvero i limiti d’uso di un modello quando entra nella sfera governativa. Il Pentagono vuole evitare eccezioni negoziate caso per caso; le aziende più caute vogliono invece preservare margini di veto sulle applicazioni più controverse.
Anthropic teme sorveglianza di massa e armi autonome senza controllo umano
Le linee rosse indicate da Anthropic, almeno secondo le ricostruzioni emerse nel dibattito pubblico e nelle cause in corso, riguardano soprattutto due aree: la sorveglianza domestica di massa e l’uso in armi autonome pienamente letali. Reuters e altri media hanno riportato che il laboratorio ha cercato rassicurazioni esplicite per evitare che i suoi modelli fossero usati in scenari di monitoraggio generalizzato dei cittadini americani o in sistemi capaci di decidere autonomamente chi colpire. Queste preoccupazioni non sono marginali, perché spostano la discussione dal semplice procurement alla filosofia politica della AI militare. Anthropic non dice che qualunque impiego nella difesa sia inaccettabile. Piuttosto, sostiene che alcune applicazioni siano troppo delicate o troppo premature per essere consegnate senza riserve a un apparato statale. È una posizione che tenta di bilanciare collaborazione e dissenso, sicurezza nazionale e responsabilità civile, ma che inevitabilmente entra in collisione con una macchina governativa abituata a pretendere disponibilità piena sugli strumenti acquistati.
Claude è già integrato in sistemi militari classificati e questo alza la tensione
Il paradosso della vicenda è che Claude non è un estraneo nei sistemi della difesa americana. Reuters ha riferito che il modello è stato usato in contesti militari e classificati, ed è descritto da vari utilizzatori come particolarmente efficace in compiti di coding, analisi dati e supporto operativo. La stessa copertura giornalistica ha evidenziato legami profondi con piattaforme e workflow già adottati dall’apparato militare, al punto che una sostituzione rapida verrebbe considerata costosa e tecnicamente complessa. Questa integrazione cambia il senso dello scontro. Non si tratta di una trattativa iniziale con un vendor ancora esterno, ma di una rottura con un fornitore già inserito nelle catene decisionali e tecniche. Proprio per questo, il tentativo di eliminarlo in tempi brevi produce resistenze interne, rallentamenti e timori di disruption. Reuters ha scritto che rimuovere Claude da alcuni sistemi richiederebbe revisioni importanti e nuovi processi di certificazione, con orizzonti anche di molti mesi. È la prova che la dipendenza operativa spesso precede il chiarimento politico.
Il Pentagono considera i vendor AI come fornitori strategici da disciplinare
Dal punto di vista del Dipartimento della Difesa, la postura è coerente con una logica di procurement tradizionale: chi fornisce una tecnologia strategica non può dettare unilateralmente i limiti finali del suo impiego governativo, purché questo resti all’interno della legalità. È il motivo per cui la vicenda viene letta da molti osservatori come un test sul futuro equilibrio tra autonomia dell’industria AI e prerogative dello Stato. Il Pentagono non sembra voler accettare un modello in cui un’impresa privata possa intervenire ex post sul raggio d’azione di capacità già integrate nei sistemi militari. Questa impostazione riflette anche il contesto politico del 2026. La designazione di Anthropic come supply-chain risk e il successivo contenzioso sono stati letti da vari osservatori come segnali di un irrigidimento del rapporto tra amministrazione federale e big AI. La causa aperta da Anthropic contro il Pentagono, e le perplessità espresse in aula dalla giudice Rita Lin, mostrano quanto il tema non sia confinato ai tecnici della sicurezza nazionale ma investa ormai il terreno costituzionale, economico e reputazionale.
La disputa apre un precedente per tutta l’industria dell’intelligenza artificiale
L’impatto del caso va ben oltre il destino immediato di Anthropic. Se il governo riuscisse a imporre senza modifiche la clausola sugli usi leciti, il messaggio per il mercato sarebbe molto chiaro: per lavorare con la difesa bisogna accettare che il perimetro d’impiego venga definito unilateralmente dallo Stato. Se invece i tribunali o la pressione politica costringessero a introdurre limiti più stringenti, si aprirebbe la strada a una nuova generazione di contratti pubblici in cui le aziende AI mantengono un ruolo attivo nella definizione delle applicazioni consentite. Per gli altri laboratori di frontiera il messaggio è doppio. Da un lato, collaborare con la difesa può portare contratti strategici, accesso a programmi ad alta priorità e legittimazione istituzionale. Dall’altro, entrare nel perimetro militare significa accettare che le proprie policy interne vengano messe alla prova da esigenze operative, pressioni politiche e interpretazioni molto ampie della legalità statale. In questo senso, il caso Anthropic-Pentagono è un precedente industriale prima ancora che una lite tra due soggetti specifici.
Il rapporto tra tech privata e difesa americana entra in una nuova fase
La vera lezione della vicenda è che la stagione del semplice entusiasmo per l’AI militare è finita. Ora comincia la fase più difficile: quella in cui bisogna decidere chi stabilisce i limiti, chi si assume la responsabilità politica e come si conciliano innovazione, legalità e diritti fondamentali. Anthropic ha scelto di esporsi su questo terreno, accettando il rischio di perdere contratti e di entrare in uno scontro frontale con il Pentagono. Il Dipartimento della Difesa, dal canto suo, ha risposto mostrando di non voler tollerare fornitori che fissino condizioni troppo restrittive. Per questo l’interpretazione di Michael Horowitz appare particolarmente utile. Dire che il conflitto nasce da politica e personalità non significa banalizzarlo, ma riconoscere che nei momenti decisivi le tecnologie di frontiera non vengono governate soltanto da policy paper e clausole legali. Pesano i caratteri dei leader, i rapporti tra istituzioni e aziende, il clima dell’amministrazione in carica e la capacità delle imprese di resistere o meno alle richieste del potere pubblico. Nel confronto tra Anthropic e Pentagono, la AI è il campo di battaglia; la posta in gioco vera è il controllo politico del suo futuro.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









