C’è un modo di stare nel potere che non passa mai dalla frontalità, ma dalla capacità di muoversi tra i tavoli, i salotti, i convegni, le università, i giornali e gli apparati morali che dovrebbero fissare il confine tra ciò che è lecito e ciò che non lo è. Paolo Benanti continua a occupare proprio quello spazio: quello del mediatore, del volto pubblico dell’etica, del referente che entra nelle discussioni più sensibili quando il rapporto tra tecnologia, fede, istituzioni e mercato diventa troppo delicato per essere lasciato ai soli tecnici o ai soli politici. Ed è in questa zona grigia, dove il linguaggio dei principi si intreccia con quello degli interessi, che si colloca il nuovo passaggio che riguarda Dario Amodei, Anthropic e il tentativo di rilanciare ancora una volta la bandiera dell’etica dell’intelligenza artificiale. Il punto, però, non è soltanto l’ennesima comparsa di Benanti in un dossier globale. Il punto è il contesto dentro cui questa iniziativa prende forma. Da una parte c’è il silenzio, o almeno la prudenza, tenuta su sistemi di guerra algoritmica come Lavender, evocati come simbolo di una tecnologia che non si limita più a supportare la logistica o l’analisi dei dati, ma entra nel cuore della decisione letale. Dall’altra parte emerge la figura di Dario Amodei, raccontato da una certa narrazione pubblica come un argine etico all’espansione incontrollata dell’IA militare e della sorveglianza. In mezzo c’è Benanti, che secondo fonti arrivate alla redazione di Matrice Digitale starebbe lavorando per costruire un contatto diretto con Amodei, con l’obiettivo di rilanciare quel progetto dell’etica dell’IA che negli anni è stato presentato come risposta morale all’accelerazione tecnologica del mondo contemporaneo.
Il vero nodo non sta solo nella bontà o meno dell’intenzione. Sta nella contraddizione strutturale di un’operazione che pretende di evocare l’etica in un momento storico in cui i grandi attori globali non stanno cercando regole comuni, ma vantaggi strategici, supremazia industriale, capacità di sorveglianza, profondità militare e superiorità sul campo. Parlare di etica in astratto, mentre Stati Uniti, Israele e Cina corrono verso sistemi sempre più invasivi e più addestrati al conflitto reale, rischia di apparire meno come un argine e più come una formula utile a ripulire la coscienza del mercato.
Cosa leggere
Il silenzio sulle guerre algoritmiche e la scelta di un nuovo interlocutore
Il primo elemento che pesa in questa vicenda è il doppio standard percepito da chi guarda l’evoluzione dell’intelligenza artificiale senza fermarsi alla superficie dei comunicati o delle interviste. Su alcuni fronti Benanti si è mostrato severo, pronto a distribuire moniti, a richiamare principi, a segnalare i limiti morali della tecnica quando la tecnica minacciava l’umano. Su altri fronti, invece, il tono si sarebbe fatto molto più cauto. In particolare, il silenzio sulle tecnologie di guerra di matrice israeliana non può che essere letto come una prudenza politica e culturale che stride con l’enfasi pubblica sull’etica e sulla centralità della persona. È qui che l’ipotesi di un avvicinamento a Dario Amodei assume un significato preciso. Secondo quanto dichiarato dallo stesso Benanti alla sua pletora di imprenditori e studenti attraverso le pagine de Il Sole 24 Ore ha individuato nel fondatore di Anthropic una figura adatta a riposizionare il discorso etico su un terreno spendibile, autorevole e globalmente riconoscibile. In altre parole, non un attore periferico, ma un nome forte, capace di dare prestigio e copertura a una nuova fase del racconto sull’IA responsabile.
La scelta non sarebbe casuale. In una fase in cui il dibattito sull’intelligenza artificiale è dominato dalla competizione geopolitica, dall’uso militare e dalla sorveglianza, serviva un interlocutore con spalle larghe, reputazione alta e capacità di parlare sia al mondo delle aziende sia a quello delle istituzioni.
La questione, però, è che la figura di Amodei non può essere raccontata come un corpo estraneo alla dinamica del potere tecnologico. Presentarlo come il volto pulito di una frontiera morale rischia di nascondere ciò che nel testo di partenza emerge con forza: l’ingresso nei circuiti delle commesse militari non sarebbe stato accidentale, ma collegato a una rete di rapporti che chiama in causa anche Peter Thiel, cioè uno dei nomi più potenti e controversi del capitalismo tecnologico contemporaneo. E allora l’interrogativo diventa inevitabile:
Benanti cerca davvero un argine etico, oppure sceglie una sponda sufficientemente forte da consentirgli di restare al centro della partita senza esporsi contro i soggetti più influenti?
Da Peter Thiel a Anthropic: il problema non è l’immagine, ma la filiera del potere
Nel racconto pubblico più benevolo, Dario Amodei appare come l’uomo che si è scandalizzato di fronte agli impieghi peggiori dell’intelligenza artificiale. Nel quadro più critico, invece, il suo posizionamento viene letto in modo assai diverso. Non tanto come rifiuto netto dell’uso bellico dell’IA, ma come presa di distanza da una specifica applicazione della tecnologia, soprattutto quando entra nel terreno della sorveglianza dei cittadini statunitensi e del controllo interno. Questa distinzione cambia molto. Perché un conto è opporsi in radice all’idea che l’IA diventi macchina di guerra, un altro è accettarne implicitamente la militarizzazione finché resta inscritta dentro un perimetro geopolitico ritenuto tollerabile.

È questo il passaggio che indebolisce l’operazione di pulizia morale. La traiettoria di Amodei non è separabile da una filiera di potere in cui il capitale, la difesa, l’influenza politica e l’innovazione avanzata convivono e si rafforzano a vicenda. Il nome di Peter Thiel non viene evocato come semplice comparsa, ma come snodo decisivo di una rete che ha contribuito a portare l’intelligenza artificiale dentro le architetture della sicurezza e della forza. In questa prospettiva, il tentativo di presentare Anthropic come luogo della coscienza e del limite suona ambiguo. Non perché manchino sensibilità o differenze interne, ma perché l’infrastruttura di potere dentro cui quella sensibilità si muove resta la stessa.

Se dunque Benanti ha davvero deciso di puntare su Amodei, la questione non è soltanto teologica, né filosofica. È soprattutto politica. Scegliere Amodei significa scegliere un interlocutore che permette di parlare di etica senza rompere con i circuiti del capitale strategico occidentale. Significa restare credibili nel dibattito morale senza precludersi l’accesso ai centri decisionali in cui l’IA viene progettata, venduta, orientata e, se necessario, messa al servizio della potenza. È qui che il linguaggio dell’etica rischia di trasformarsi in un linguaggio di compatibilità, più che di opposizione.
Il Vaticano, papa Prevost e il ritorno della dottrina morale sull’IA
In questo scenario, il ruolo del Vaticano assume una centralità evidente. Se davvero Benanti è stato incaricato da papa Prevost di aprire un canale con Amodei, allora la posta in gioco non è soltanto culturale. È istituzionale. Il Vaticano, stretto tra trasformazione tecnologica, nuovi rischi cibernetici e una pressione geopolitica crescente, avrebbe tutto l’interesse a rimettere in campo una sua iniziativa sull’etica dell’IA, soprattutto dopo gli anni in cui il tema era stato lanciato come orizzonte universale sotto il pontificato di Papa Francesco. Ma proprio qui emerge il paradosso più duro. L’etica dell’IA proposta come principio globale appare, nel testo, come il più grande strumento di marketing costruito intorno a un’illusione: quella di poter disciplinare moralmente una tecnologia che nasce, cresce e si afferma dentro una competizione sistemica dominata da interessi nazionali, industrie militari, apparati di sicurezza e grandi piattaforme private. Non è un dettaglio. È il cuore del problema.
Se nessuno dei grandi blocchi strategici è disposto a rinunciare al vantaggio che l’IA offre sul piano del comando, del controllo, della sorveglianza e della guerra, l’etica universale rischia di restare soltanto una cornice narrativa buona per conferenze, editoriali, forum internazionali e reputazione.
Benanti, in questa chiave, apparirebbe come l’uomo incaricato di tenere in vita il racconto. Non necessariamente per malafede, ma per funzione. È il soggetto che traduce in linguaggio morale una partita che altrove si gioca in termini di denaro, influenza, sicurezza e accesso ai decisori. E allora il problema non è se l’etica sia necessaria. Il problema è capire se il suo rilancio serva davvero a frenare la deriva o piuttosto a renderla più presentabile.
Tra opportunismo e sopravvivenza: l’etica come copertura di mercato
C’è ancheuna lettura più opportunistica, meno spirituale e più materiale: l’avvicinamento a Amodei e al mondo Anthropic non servirebbe soltanto a rilanciare una visione morale dell’IA, ma anche a consolidare nuove possibilità di finanziamento, accreditamento e collaborazione. In altri termini, l’etica non come barriera, ma come linguaggio utile per entrare nei luoghi dove si decide la distribuzione di risorse, influenza e legittimità. Da questo punto di vista Benanti è l’interprete perfetto del tempo presente: mai completamente schierato contro le tecnologie più invasive, mai davvero disposto a rompere con i poteri che le sostengono, ma sempre pronto a posizionarsi come correttore morale di processi che in realtà non intende bloccare. Il punto non è solo la coerenza personale. Il punto è il sistema. Chi vuole continuare a esercitare un ruolo trasversale, soprattutto tra Vaticano, mercato e grandi attori tecnologici, deve evitare rotture definitive. Deve criticare abbastanza da sembrare credibile, ma non troppo da diventare irrilevante. Ecco perché l’ipotesi di una possibile collaborazione o di un possibile appalto tecnologico al servizio della sicurezza del Vaticano non suona come fantascienza. In tempi di pressione crescente, di attacchi cyber, di destabilizzazione globale e di timore per la sicurezza delle istituzioni religiose occidentali, la domanda di strumenti intelligenti, capaci di analisi, prevenzione e difesa, è destinata ad aumentare. In questo scenario, il confine tra riflessione morale e soluzione operativa può assottigliarsi fino quasi a scomparire. L’etica allora non sparisce, ma cambia funzione: da criterio di limite a veicolo di legittimazione.
Il problema non è l’etica dell’IA, ma chi la usa e per cosa
Alla fine, ciò che emerge non è semplicemente un conflitto tra buoni e cattivi, tra etici e cinici, tra religione e tecnologia. Emerge qualcosa di più scomodo. L’etica dell’intelligenza artificiale non viene rifiutata in quanto tale, ma viene svuotata quando diventa una formula da spendere dentro una filiera di potere che ha già scelto le proprie priorità. Se davvero Benanti sta tentando di rimettere in piedi quella dottrina morale attraverso un rapporto con Amodei, allora la domanda non è se l’intenzione sia nobile. La domanda è se sia ancora credibile. Perché nel momento in cui l’IA entra nella guerra, nella sorveglianza di massa, nella selezione dei bersagli, nel controllo preventivo e nella sicurezza delle istituzioni, non basta più parlare di umanesimo digitale o di principi condivisi. Serve scegliere se stare contro la militarizzazione della tecnica o limitarsi a renderla più tollerabile sul piano reputazionale. Serve decidere se denunciare i sistemi che trasformano l’elaborazione automatica in potere di vita e di morte oppure se continuare a distinguere caso per caso, partner per partner, alleato per alleato. È qui che il percorso di Benanti si fa davvero controverso. Perché la sua figura, da garante morale, rischia di apparire sempre più come quella di un facilitatore compatibile, capace di tenere aperte le porte con tutti, di parlare il linguaggio della coscienza senza rompere con quello del potere, di evocare il limite proprio mentre il limite viene superato. E in un’epoca in cui il Vaticano, gli Stati e le imprese cercano non tanto verità quanto protezione, influenza e strumenti, il rischio è che l’etica dell’IA finisca per diventare non il freno della macchina, ma il suo cappellano.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









