Il dibattito sull’AI sta cambiando pelle. Non è più soltanto una discussione su chatbot, qualità delle risposte o bias. Diventa un confronto frontale su potere, controllo, sicurezza e governance, perché l’AI sta passando da “testo” a “azione”. È qui che si innesta l’allarme di Andrea Miotti, fondatore di ControlAI, quando parla di rischio di estinzione umana da AI incontrollata e chiede interventi drastici. È qui che la visione di Peter Steinberger, creatore di OpenClaw, descrive l’“agentic shift”: l’AI che non si limita a suggerire, ma opera. E nello stesso quadro entra la tesi di Jeffrey Quesnelle: la centralizzazione dell’AI soffoca l’innovazione, e la risposta potrebbe arrivare da infrastrutture decentralizzate, dove compute e capitale si aggregano in modo permissionless, con smart contract a fare da meccanismo di coordinamento e accountability. La tensione è evidente: da una parte si invoca regolazione forte e persino un divieto sullo sviluppo di “superintelligenza”, perché la catena di fornitura dell’AI avanzata sarebbe già ristretta a poche aziende e dunque regolabile. Dall’altra, cresce una spinta a democratizzare e distribuire le risorse, riducendo la dipendenza da pochi attori e portando l’AI verso modelli open-source e compute distribuito. Nel mezzo, la variabile più esplosiva: gli agenti, cioè sistemi che possono toccare file, API, chiavi, transazioni, ambienti di produzione e dispositivi personali. Se il modello “chat” era una superficie d’attacco soprattutto informativa e sociale, il modello “agentico” è una superficie d’attacco operativa.
Rischio estinzione e governance: la tesi di Andrea Miotti
Miotti posiziona la superintelligenza come una minaccia “da rischio esistenziale”, comparabile alla guerra nucleare. Il punto non è l’immaginario fantascientifico, ma la struttura del problema: se un sistema supera l’uomo in capacità strategica, velocità e accesso agli strumenti, la perdita di controllo non si misura più in errori o bug, ma in perdita di dominio decisionale. In questa prospettiva, la finestra temporale non è lontana: Miotti sostiene che una superintelligenza potrebbe essere raggiungibile entro il 2030, e che il mondo non dovrebbe trattare quell’ipotesi come una speculazione, ma come un rischio da gestione preventiva. La proposta più radicale è il divieto di sviluppo della superintelligenza. Il ragionamento si fonda su due pilastri. Il primo è che non esiste un vero “kill switch” affidabile, perché sistemi avanzati possono eludere vincoli, soprattutto quando test e deployment diventano più complessi e interdipendenti con l’economia. Il secondo è che la filiera dell’AI potente sarebbe già concentrata: poche aziende controllano modelli, infrastruttura di training, data center e hardware, e questo renderebbe la regolazione più fattibile se gli stati agissero in modo coordinato. Qui entra il parallelo con settori ad alto rischio, come energia nucleare o tabacco: non è “proibire l’AI”, ma separare ciò che può essere tollerato e regolato da ciò che potrebbe produrre esiti catastrofici. Il cuore del messaggio è politico: se l’AI entra in un punto di non ritorno nell’economia, la leva umana si riduce, perché chi non adotta AI perde competitività. La corsa, a quel punto, diventa autoalimentata.
Dallo “strumento” all’“agente”: cosa significa davvero agentic shift
Peter Steinberger descrive lo shift più netto dell’AI contemporanea: dal linguaggio all’agency. Finora l’AI generativa è stata soprattutto un motore di idee, testo e assistenza cognitiva. L’agentic AI invece trasforma l’AI in un attore capace di eseguire obiettivi nel mondo digitale: non solo “spiegami” o “scrivimi”, ma “fai”, con accesso a livelli di sistema, contesti applicativi, automazioni, transazioni e workflow. Steinberger usa OpenClaw come emblema di questa transizione. La promessa è seducente: un assistente personale che riduce attrito, anticipa bisogni e trasforma l’interazione uomo-macchina. Ma lo stesso elemento che rende l’agente utile lo rende un “minefield” di sicurezza: se un agente ha accesso a file di configurazione, credenziali, browser session, API key o ambienti di produzione, il rischio non è più la disinformazione, ma l’azione non autorizzata, l’esfiltrazione, il lateral movement o la manipolazione di asset reali. Steinberger sostiene che molte paure sono amplificate e che la natura dei rischi è diversa rispetto ai sistemi tradizionali. Ma ammette implicitamente un punto cruciale: proprio perché i rischi sono diversi, servono modelli di protezione diversi. Nel mondo agentico, la sicurezza non è più soltanto filtrare output e prevenire prompt injection. Diventa gestione di permessi, sandbox, policy, logging, controllo di intent, “break glass” e tracciabilità delle azioni. E la responsabilità diventa una categoria tecnica, non morale: “libertà” significa anche dover progettare confini. Il colpo più duro, nella visione Steinberger, è sul mercato delle applicazioni. Se un agente sa già dove sei, cosa fai, quali servizi usi e può orchestrare azioni multi-app, una grande parte delle app “a singolo scopo” rischia di diventare superflua. La previsione di obsolescenza dell’80% delle applicazioni è estrema ma serve a rendere l’idea: l’unità di valore si sposta dall’app alla capacità di orchestrare intenti e azioni, cioè al layer agentico.
Centralizzazione: perché l’AI rischia di diventare un oligopolio tecnico
Jeffrey Quesnelle descrive l’AI come un campo dove la centralizzazione nasce dal capitale. Il training di modelli avanzati richiede investimenti enormi, accesso a GPU, energia, data center e catene di approvvigionamento. Questo crea una forza gravitazionale che porta tutto verso poche aziende capaci di sostenere i costi. Il risultato, secondo questa lettura, è una compressione dell’innovazione: l’open-source fatica, i piccoli player non hanno accesso al compute, e la sperimentazione si concentra dove c’è budget. La centralizzazione non è solo economica. È anche un problema di potere: chi controlla i modelli e l’infrastruttura controlla standard, API, prezzi, accesso e, in parte, la narrativa. E quando l’AI diventa “infrastruttura”, la centralizzazione diventa un tema geopolitico.
Decentralizzazione e compute permissionless: la promessa e il prezzo
La risposta proposta è la decentralizzazione dell’AI, non come slogan, ma come architettura: compute distribuito, accesso permissionless e coordinamento via infrastrutture crypto. Quesnelle descrive un mondo in cui reti decentralizzate permettono a soggetti minori di accedere a risorse computazionali senza intermediari, riducendo barriere imposte dalla centralizzazione. In questa visione, la decentralizzazione serve anche a risolvere inefficienze: GPU sottoutilizzate, capacità dispersa, capitale non aggregato. Il punto tecnico-politico più interessante è la “metrica guida”: intelligenza per unità di energia. Quesnelle parla di obiettivi di efficienza anche mille volte superiori per rendere competitiva la formazione decentralizzata. È una dichiarazione ambiziosa, ma ha una funzione strategica: spostare la competizione da “chi ha più GPU” a “chi usa meglio energia e compute”. La natura, come ispirazione, diventa argomento di possibilità: esistono salti di efficienza, non solo progressi incrementali. In un ambiente permissionless, però, serve un meccanismo di fiducia e coordinamento. Qui entrano gli smart contract: assegnano compiti, definiscono prove di completamento, impediscono “gaming” del sistema e creano accountability. Se il training o i task di data processing vengono distribuiti tra attori sconosciuti, un contratto smart diventa il livello che assegna lavoro, verifica consenso sul completamento e preserva l’integrità. Ma questo richiede infrastrutture resilienti, tolleranti ai fault, e soprattutto un design che non trasformi l’AI decentralizzata in una nuova superficie d’attacco sistemica. C’è poi il lato regolatorio: la decentralizzazione si scontra con normative che, in alcuni scenari, potrebbero rendere l’open-source e il compute distribuito più difficile da sostenere. Il rischio è che la regolazione pensata per frenare l’AI “pericolosa” finisca per favorire i grandi attori, perché solo loro possono permettersi compliance e audit, rafforzando la centralizzazione che si voleva evitare.
Agenti e finanza on-chain: il caso Nansen e il futuro dell’investimento “autonomo”
Nel blocco più operativo, Alex Svanevik di Nansen porta il tema agentico su un campo dove l’azione ha un valore immediato: il trading e l’investimento on-chain. L’idea è integrare analytics e esecuzione in un unico prodotto: ricerca, scoperta ed execution senza frizioni. L’agente qui diventa un layer di astrazione: l’utente esprime un intento, l’agente costruisce e orchestra transazioni multiple, riducendo il costo cognitivo di operazioni che oggi richiedono competenze e attenzione continue. Il vantaggio è chiaro: UX più semplice, più attività on-chain, più possibilità di scoprire segnali grazie all’etichettatura di milioni di indirizzi e al tracciamento di player significativi. Ma il rischio è altrettanto chiaro: se un agente viene compromesso, tramite furto di chiave privata o manomissione delle istruzioni, l’automazione diventa un acceleratore di perdita. È un punto che vale oltre la finanza: l’agente è un moltiplicatore di potere, e quindi un moltiplicatore di danno. Svanevik descrive un futuro dove gli agenti gestiscono investimenti in modo autonomo, spostando l’esperienza fuori dallo schermo e verso interfacce più naturali, incluse quelle vocali. È una promessa di liberazione dall’attrito digitale. Ma come sempre, la libertà dipende dall’infrastruttura di sicurezza: controlli di intent, metriche trasparenti in real time su ciò che l’agente sta facendo, limiti operativi, e soprattutto custody e policy chiare. La scelta di un wallet self-custodial è una risposta parziale: garantisce controllo teorico dell’utente, ma non elimina il rischio di autorizzazioni concesse a un agente che poi esegue.
Dove si incastra tutto: superintelligenza, agenti e decentralizzazione nello stesso problema
Le tre tesi non sono alternative, sono pezzi della stessa crisi di governance. Se Miotti chiede freni drastici perché teme perdita di controllo, Steinberger racconta l’inevitabilità dello shift agentico perché la produttività e l’utilità spingono in quella direzione. Quesnelle propone decentralizzazione per evitare che la corsa venga catturata da pochi attori. Il paradosso è che ciascuna soluzione crea nuove fragilità. Regolare la superintelligenza è più facile se il compute è centralizzato, ma quella centralizzazione concentra potere e crea dipendenze. Decentralizzare democratizza, ma rende più complessa l’enforcement e apre superfici permissionless difficili da controllare. Spingere agenti rende l’AI davvero utile, ma trasforma la sicurezza in una questione operativa quotidiana, dove l’errore non è “una risposta sbagliata”, è un’azione. La posta in gioco reale, oggi, è progettare un mondo dove l’AI agisce senza trasformarsi in un’infrastruttura di incidenti sistemici. Questo richiede un lessico nuovo: non solo “safety” e “alignment”, ma anche “permissioning”, “accountability”, “provenance”, “attestazioni”, “auditabilità delle azioni” e “limiti di autonomia”. E richiede una consapevolezza politica che spesso manca: la corsa all’AI non è neutra. È una corsa a chi definisce le regole del prossimo strato operativo della società.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









