pentagono anthropic openai ai militare

L’intelligenza artificiale in guerra: Pentagono arruola OpenAI nella zona grigia del potere rifiutata da Anthropic

C’è una frase che ritorna ciclicamente, quasi fosse un interruttore emotivo da azionare quando serve spostare l’attenzione: “l’intelligenza artificiale potrebbe sfuggire di mano”. È una formula potente perché contiene tutto, senza impegnare davvero su nulla. Evoca un pericolo sistemico, chiama in causa la responsabilità, richiama l’urgenza. Ma soprattutto, in un contesto dove la tecnologia è anche finanza e influenza, crea un riflesso immediato: genera cautela pubblica e, nello stesso momento, alimenta la domanda di “soluzioni” e la corsa al capitale. È qui che il discorso diventa più interessante, perché la paura non è soltanto un tema etico: è anche un meccanismo economico. Negli ultimi anni il rapporto tra i grandi laboratori di AI e il comparto difesa ha smesso di essere un sottotesto. È diventato un asse operativo, anche quando si prova a raccontarlo come semplice “supporto”, come infrastruttura, come ricerca o come collaborazione “responsabile”. Il punto non è soltanto cosa viene firmato, quali clausole esistono, quali limiti vengono dichiarati. Il punto è cosa accade quando il ciclo dell’AI si aggancia al ciclo della sicurezza nazionale: la scala, i tempi, il denaro e la tolleranza al rischio cambiano. E, quando cambiano, cambiano anche i criteri con cui una società decide cosa è accettabile. In questa cornice, parlare di Pentagono, Anthropic e OpenAI significa parlare di tre livelli diversi della stessa partita. Il primo è quello del committente pubblico con capacità di spesa e di indirizzo strategico. Il secondo è quello dell’azienda che costruisce modelli e prova a posizionarsi come “responsabile”, ponendo paletti e costruendo narrativa attorno a una prudenza istituzionale. Il terzo è quello della piattaforma che ha trasformato la promessa di un’AI generalista in un motore di raccolta finanziaria, in una macchina di partnership, in un brand globale che vive di visibilità, di velocità e di crescita. Questi tre livelli non si sommano in modo lineare: si attraggono, si condizionano, si legittimano e si usano a vicenda. La questione non è soltanto “l’AI va in guerra”. La questione è più concreta: l’AI entra in processi che hanno natura militare, entra in catene decisionali che toccano la sicurezza, entra in filiere industriali dove i fornitori diventano strategici e dove la dipendenza tecnologica diventa una forma di potere. Quando accade, i confini tra ricerca, prodotto, procurement e dottrina operativa diventano porosi. La parola “responsabilità” resta in superficie, mentre sotto si muovono logiche di scala, di contratti e di infrastrutture che non rispondono al ritmo del dibattito pubblico.

La notizia

Annuncio

Tra 26 febbraio 2026 e 1 marzo 2026 si è consumato uno scontro pubblico che ha messo in chiaro, senza più filtri, dove passa oggi la linea di frizione tra i laboratori di frontiera e il Pentagono: Anthropic ha reso noto di non poter “accedere” alla richiesta del Dipartimento (ribattezzato dall’amministrazione Trump “Department of War”) di accettare l’uso di Claude per “any lawful use”, chiedendo invece di mantenere due salvaguardie precise contro sorveglianza domestica di massa e armi pienamente autonome; il Dipartimento ha risposto che non intende fare sorveglianza illegale né sviluppare armi senza controllo umano, mentre la frattura si è trasformata in una crisi politica e contrattuale con la minaccia di rimuovere Anthropic dai sistemi e l’ipotesi di etichettarla come “supply chain risk”, fino alla direttiva di Trump di interrompere i rapporti federali con la società. Nelle stesse ore, OpenAI ha annunciato un accordo per distribuire la propria tecnologia sulla rete classificata della difesa, rivendicando “guardrail” più stringenti e fissando tre linee rosse operative, tra cui il divieto di uso per sorveglianza domestica di massa e per dirigere sistemi d’arma autonomi, con un impianto di controlli che include la gestione del proprio “safety stack” e personale autorizzato “in the loop”; sullo sfondo resta il nodo che ha fatto esplodere il caso, cioè la possibilità che l’uso “legale” includa anche la raccolta su larga scala di dati pubblicamente disponibili degli americani, che Anthropic voleva esplicitamente escludere a livello contrattuale e che, secondo diverse ricostruzioni, non risulterebbe vietata in modo altrettanto esplicito nella formulazione contestata.

Pentagono e la normalizzazione dell’AI nei processi di difesa

Il Pentagono non è un attore neutro che “sperimenta” tecnologia come se fosse un laboratorio universitario. È un’istituzione che ragiona in termini di superiorità informativa, capacità di proiezione, deterrenza, catene di comando e tempi di decisione. Quando entra in relazione con l’AI, non lo fa per curiosità. Lo fa perché l’AI promette di comprimere tempi, aumentare throughput, rendere “gestibile” una quantità di segnali che altrimenti resterebbe rumore. Il linguaggio pubblico tende a presentare tutto questo come “supporto all’analisi”, come “strumenti per ridurre l’errore umano”, come “ausilio per proteggere i civili”. Ma il cuore della questione resta la stessa: l’AI serve perché rende più veloce e più economico trasformare informazione in azione. Questa trasformazione ha un impatto diretto sulla cultura operativa. Se una macchina suggerisce priorità, evidenzia pattern, propone correlazioni, classifica minacce, costruisce liste, allora il rischio non è soltanto l’errore tecnico. Il rischio è lo spostamento di fiducia. La fiducia si sposta dal giudizio umano all’apparato. E quando la fiducia si sposta, cambia la soglia con cui si accetta un margine di errore, soprattutto quando quel margine è “statistico”, invisibile a chi subisce le conseguenze. Il paradosso è che l’AI viene spesso venduta come strumento che “riduce l’arbitrarietà”, mentre in realtà può amplificare arbitrarietà diverse.

Non c’è più soltanto l’arbitrarietà dell’operatore che decide in condizioni di stress. C’è l’arbitrarietà del dataset, l’arbitrarietà del labeling, l’arbitrarietà del contesto mancante, l’arbitrarietà delle correlazioni spurie, l’arbitrarietà del modello che produce una risposta con un tono di certezza. E, nella catena militare, questa arbitrarietà non resta teoria: diventa effetto operativo.

Anthropic, OpenAI e la partita dell’etica come posizionamento

Quando si parla di Anthropic e OpenAI, è facile cadere in una lettura da tifo: i “responsabili” contro gli “spregiudicati”, i “prudenti” contro i “crescisti”, la safety contro la scalabilità. Ma una lettura utile deve guardare al contesto reale: oggi l’etica è anche posizionamento, e la safety è anche una forma di governance del rischio reputazionale e regolatorio. Questo non significa che la safety sia falsa. Significa che opera dentro incentivi economici e politici. Anthropic ha costruito parte della sua identità pubblica attorno a una linea più prudente, facendo del tema della sicurezza un elemento identitario. È una scelta che ha senso in un mercato dove la fiducia vale quanto la tecnologia. Ma la prudenza è anche una postura competitiva: se un’azienda si posiziona come affidabile per governi e grandi imprese, costruisce un vantaggio nel procurement e nella contrattualistica, specialmente in settori ad alta sensibilità. OpenAI, invece, ha incarnato la tensione opposta: la promessa dell’AI generalista come motore di crescita, con un ritmo di prodotto che spesso anticipa il dibattito, lo forza e lo costringe a inseguire. La storia recente ha mostrato quanto la governance interna, i rapporti con partner industriali e il bisogno continuo di capitale possano diventare elementi strutturali del modo in cui l’azienda comunica e decide.

In questo quadro, anche la frase “potrebbe sfuggire di mano” non è soltanto un monito: è un segnale di potere, un modo per ricordare al mercato che chi controlla la frontiera controlla anche la narrativa della minaccia.

E qui si innesta un punto cruciale: quando i leader dell’AI parlano di pericolo esistenziale, parlano anche di scala e di risorse. Se la minaccia è enorme, allora la soluzione “inevitabile” è più infrastruttura, più energia, più calcolo, più data center, più chip, più partnership strategiche. La paura diventa un acceleratore del fabbisogno industriale. E il fabbisogno industriale diventa, a sua volta, una leva politica.

La guerra del calcolo: data center, energia e dipendenza strutturale

La discussione pubblica sull’AI si concentra spesso sul modello, sul chatbot, sulle capacità emergenti. Ma la partita vera, quella che decide chi può davvero competere, è il calcolo. L’AI moderna è una tecnologia che consuma energia e capitale. Richiede data center, supply chain, contratti di elettricità, sistemi di raffreddamento, reti, ridondanza, sicurezza fisica. A quel punto, l’AI non è più “software”: diventa infrastruttura. E quando diventa infrastruttura, entra nello stesso spazio geopolitico delle telecomunicazioni, dei cavi, delle centrali, delle grandi piattaforme cloud. È in questa dimensione che si comprendono anche le dipendenze. Chi non possiede infrastruttura deve affittarla. Chi non controlla la filiera deve negoziare. Chi non può sostenere autonomamente la scala deve legarsi a un partner, e quel partner, inevitabilmente, acquisisce potere. In un ecosistema dove Microsoft offre cloud e capacità di calcolo, dove gli hyperscaler hanno già costruito un dominio industriale, la promessa di “costruire da soli” diventa un atto politico prima ancora che industriale. E la politica, in questo caso, si paga in capitale e in compromessi.

Questa dinamica ha una conseguenza che raramente viene detta in modo diretto: la governance dell’AI non si gioca solo nelle leggi e nei comitati etici. Si gioca nella proprietà dell’infrastruttura. Chi controlla i data center controlla il ritmo dell’innovazione, le priorità di sviluppo, la disponibilità per clienti strategici, la capacità di rispondere a richieste istituzionali. Se l’AI entra nella difesa, allora i data center diventano, di fatto, asset strategici. E quando un asset è strategico, la linea tra pubblico e privato si assottiglia.

La zona grigia dei contratti: procurement, clausole e responsabilità distribuita

Il nodo più delicato, nella relazione tra AI e difesa, è la responsabilità. Perché la responsabilità non è un concetto astratto: è una catena. Chi decide? Chi valida? Chi addestra? Chi fornisce? Chi integra? Chi interpreta l’output? Chi preme il bottone? Più la catena si frammenta, più diventa facile spostare la colpa “a valle” o “a monte”. Il fornitore può dire che il modello è generale e che l’uso è dell’utente. L’utente può dire che il modello è opaco e che si è fidato del fornitore. L’integratore può dire che ha implementato specifiche. Il committente può dire che ha rispettato procedure. Alla fine, il danno resta, ma la responsabilità evapora. In questo quadro, la parola chiave è “integrazione”. Perché l’AI, in ambito militare, non è quasi mai un prodotto isolato. È un componente dentro un sistema. E quando un componente entra in un sistema, il suo impatto dipende da come viene collegato. Questo rende più difficile sia l’audit sia il controllo democratico. Non è più “questa azienda fa questa cosa”. È “questa azienda fornisce un pezzo che poi viene usato in una filiera che non si racconta nel dettaglio”. La trasparenza, qui, non è un optional morale. È un requisito operativo se davvero si vuole parlare di governance. Ma la trasparenza è anche un costo e un rischio. Espone, mostra dipendenze, rivela strategie, apre contenziosi. E allora la tentazione è sempre la stessa: dichiarare principi e lasciare opaca la macchina.

Dal “supporto” alla selezione: il confine che si sposta senza rumore

C’è un punto in cui il lessico diventa decisivo. Se un sistema “supporta” l’analisi, sembra innocuo. Se un sistema “suggerisce” priorità, sembra utile. Se un sistema “ottimizza” risorse, sembra efficiente. Ma quando un sistema produce liste e categorie che diventano operative, il supporto diventa selezione. E la selezione, in ambito bellico, è potere di vita e di morte. Il problema più pericoloso non è l’automazione totale dichiarata. Quella, almeno, spaventa e genera dibattito. Il problema è l’automazione parziale normalizzata: quella che entra come assistente, si stabilizza come strumento, poi diventa standard, poi diventa dipendenza. A quel punto, anche se formalmente “c’è un umano nel loop”, quell’umano può diventare un timbro. E quando l’umano è un timbro, la discrezionalità umana è una finzione amministrativa. In parallelo, cresce l’asimmetria informativa tra chi progetta e chi decide. Il decisore può non comprendere davvero limiti, margini di errore e bias. L’output appare come risultato “scientifico”. E allora la politica e la dottrina si appoggiano su un’apparenza di neutralità, mentre sotto c’è una tecnologia che non è neutra per definizione, perché nasce da scelte umane, da obiettivi, da incentivi.

Occidente, Cina e l’incoerenza come metodo

Un altro elemento ricorrente è la narrativa comparativa: la Cina come minaccia, l’Occidente come baluardo etico. È una narrazione che regge finché resta retorica. Quando si entra nei conflitti reali e nei processi reali, la retorica perde forza e resta la meccanica: chi riesce a testare, a iterare, a raccogliere dati, a trasformare il campo in laboratorio, accelera. E l’accelerazione, in contesti bellici, non è un concetto neutro. Significa spostare la soglia del possibile. Se l’Occidente costruisce la sua identità pubblica sul rispetto dei diritti, ma poi normalizza l’uso di AI per selezionare, classificare, indirizzare azioni letali, allora il problema non è solo morale. È strategico: si erode la credibilità di un intero impianto narrativo, e quella credibilità era parte della forza geopolitica. Quando la credibilità si erode, resta la potenza nuda. E la potenza nuda, storicamente, produce escalation.

Il rischio distopico non è un film: è una traiettoria amministrativa

La distopia alla Terminator è una metafora efficace perché è visiva. Ma la realtà non arriva con robot autonomi che improvvisamente decidono. Arriva per piccoli passaggi amministrativi: una policy, una deroga, una sperimentazione, un contratto, un rinnovo, un’integrazione, un aggiornamento. Arriva come somma di micro-decisioni che, singolarmente, sembrano ragionevoli. Poi, quando ci si volta indietro, ci si accorge che la soglia è stata superata senza un vero atto pubblico. In questa traiettoria, il tema “l’AI sfuggirà di mano” è quasi un diversivo. Perché l’AI non deve sfuggire di mano per diventare pericolosa. Basta che diventi normale. Basta che diventi standard. Basta che diventi la soluzione predefinita per gestire complessità e pressione. La pericolosità, spesso, non è l’errore spettacolare. È l’abitudine. E questo riporta al punto di partenza:

quando la stessa industria che chiede più calcolo e più investimenti usa la paura come cornice, occorre leggere quel linguaggio anche come politica economica. Non per negare i rischi, ma per capire come i rischi vengono mobilitati.

Il caso Altman-Amodei come sintomo di una guerra di narrative

L’interesse della contrapposizione tra figure come Sam Altman e Dario Amodei non è la psicologia dei singoli. È il fatto che, attraverso di loro, passa una guerra di narrative. Da un lato c’è la narrativa dell’innovazione inevitabile, della scala come destino, del “siamo costretti a correre”. Dall’altro c’è la narrativa del controllo, della prudenza, della safety come cornice istituzionale. Ma entrambe, in modi diversi, vivono dentro un mercato dove i governi sono clienti, dove la difesa è committente, dove il cloud è la base materiale e dove l’infrastruttura è la vera leva. L’elemento decisivo, quindi, non è chi ha “ragione” sul piano morale in un’intervista o in una dichiarazione. È quale modello di potere si sta consolidando. Se l’AI diventa parte del complesso militare-industriale, allora anche le aziende AI diventano, di fatto, attori geopolitici. E un attore geopolitico ragiona in termini di alleanze, dipendenze, accesso alle risorse, posizionamento. Non ragiona soltanto in termini di ricerca e prodotto. È in questa trasformazione che si giocano le scelte dei prossimi anni. Perché, una volta che la difesa diventa una delle grandi matrici di domanda, la pressione a “rendere operativo” il modello cresce. Cresce la richiesta di affidabilità, ma cresce anche la richiesta di risultati. E quando la richiesta di risultati si fa stringente, l’etica rischia di diventare una cornice estetica, utile finché non ostacola.

Il commento

La storia di Dario Amodei e di Sam Altman va giudicata con un’oggettività che, in questo caso, conta poco, perché c’è una dimostrazione evidente: quando l’intelligenza artificiale “dice” che può sfuggire di mano, siamo davanti a una grande incoerenza. Lo avevamo già detto e sottoscritto ai tempi del primo blocco su OpenAI, quando accademici, professori universitari e molte figure del mondo tecnologico firmarono un appello perché si riteneva che ci si stesse avvicinando all’AGI. Oggi, a distanza di tre anni, l’AGI non è ancora arrivata, ma si capiscono anche i movimenti di Altman: è un disperato. Dal punto di vista economico si sono chiusi round finanziari, si appoggia ovviamente a un’infrastruttura che è quella di Microsoft, ma al tempo stesso oggi si muove dentro una logica in cui vorrebbe costruire data center con progetti miliardari, giri di soldi che si autofinanziano da soli dentro la Silicon Valley e che sembrano non avere alcun risvolto fattivo. Non perché manchino le complicazioni: semmai perché queste complicazioni mettono Altman nella condizione di restare sempre dipendente, visto che non è “nato ricco” e si ritrova costantemente a chiedere soldi per infrastrutture che altri hanno già, come Microsoft, Amazon e, con la sua Meta, anche Zuckerberg.

Un altro aspetto da non sottovalutare è il fatto che Altman, qualche giorno fa dall’India, abbia detto che l’intelligenza artificiale potrebbe sfuggire di mano. Era semplicemente una mossa di repertorio per attirare investimenti e, allo stesso tempo, bloccare con perdite sul mercato, così come fu fatto a suo tempo contro di lui. E infatti ha dimostrato di avere poche preoccupazioni reali sulla pericolosità dell’intelligenza artificiale, mentre il CEO di Claude, Dario Amodei (Anthropic), avrebbe rifiutato quelle che sono le direttive della Nato e degli Stati Uniti d’America sull’utilizzo della tecnologia a fini militari, in un quadro di “via libera” notevole. Questo ci fa capire che Altman, in questo preciso momento, è in una situazione vergognosa dal punto di vista etico e morale. Non sorprende neppure che l’intelligenza artificiale sia stata ampiamente utilizzata in Israele con il suo Lavender per addestrarsi sullo sterminio dei civili a Gaza, e questo dovrebbe farci riflettere molto, anche sul fatto che gli Stati Uniti d’America potrebbero acquisire già una tecnologia simile pronta, da perfezionare dal punto di vista dell’addestramento algoritmico. Il problema della guerra sta proprio qui: non esiste un processo più pericoloso di un macchinario militare che non abbia la discrezionalità umana nel sottrarre la vita a persone inermi, civili, durante i conflitti bellici. Inoltre non è stato difficile, per Trump, essere convincente nei confronti di Altman, che è stato nominato un paio di anni fa “ebreo dell’anno”, proprio per i rapporti tra Bibi Netanyahu e lo stesso Presidente USA, ovviamente, per i rapporti tra gli Stati Uniti d’America e Israele, con le annesse intelligence, CIA e Mossad, che interagiscono da sempre e agiscono, come abbiamo visto più volte e stiamo vedendo in questi giorni in Iran e soprattutto in Medio Oriente. E allora c’è da porsi una domanda: mentre molti si esaltano per le vicissitudini quotidiane fatte di dichiarazioni roboanti o questioni che “dovrebbero” fare notizia, bisognerebbe iniziare a fare una riflessione. La riflessione l’ha data Tether: oggi bisognerebbe fare intelligenza artificiale in modo locale, senza consentire a determinati soggetti di addestrare coloro che ci sostituiranno.

Nel caso del settore militare potrebbe anche andare bene, ma dove arriveremo con una tecnologia che ci porta a uno scenario distopico alla Terminator, in cui macchine e robot decideranno chi ammazzare e chi no?

C’è poi un altro fattore, da affrontare con molta ironia: molti si sono allarmati per i sistemi robotici cinesi e per i loro sistemi di intelligenza artificiale. Ad oggi, però, ci troviamo davanti a un elemento più preoccupante e, come al solito, incoerente da parte dell’Occidente. I cinesi utilizzano una tecnologia testata al massimo su di loro e non ancora in guerra, soprattutto la tecnologia avanzata per il riconoscimento facciale e una robotica di scarsa qualità, che però svolge i suoi compiti meglio degli Occidentali. Invece gli Stati Uniti d’America e il mondo occidentale hanno già superato la soglia, proprio grazie al conflitto a Gaza, dell’addestramento di modelli di intelligenza artificiale per uso militare su civili, provandone l’efficacia nell’abbattimento di palazzi dove “potrebbero” nascondersi terroristi e soprattutto nell’assassinio anche di civili classificati come terroristi.

La solita storia dell’Occidente, che preferisce guardare dall’altra parte e pensarsi migliore dal punto di vista etico, ma poi sa molto bene che, per la sua sopravvivenza, per la sopravvivenza della sua democrazia e di eventuali diritti civili prima ancora che sociali, forse è il caso di utilizzare proprio i metodi che le democrazie fanno finta di combattere.

Iscriviti alla Newsletter

Non perdere le analisi settimanali: Entra nella Matrice Digitale.

Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.

Torna in alto