nvidia agentic ai telco lillypod 9000 petaflops

Reti mobili autonome e farmaci scoperti in silico: NVIDIA lancia l’era della AI Factory agentica

NVIDIA blueprint agentici per reti telco diventa la formula con cui NVIDIA prova a trasformare l’automazione in autonomia verificabile, mentre Eli Lilly accende LillyPod con 1016 GPU Blackwell Ultra e oltre 9000 petaflops per comprimere i tempi della scoperta farmaceutica dentro un dry lab computazionale. Nel giro di pochi giorni, tra 26 e 28 febbraio 2026, l’azienda mette in scena una strategia coerente: portare l’AI in settori regolamentati e infrastrutturali con un approccio full-stack, on-premise e soprattutto costruito attorno a simulazione, tracciabilità e controllo del rischio. Sullo sfondo, la nascita di GSMA Open Telco AI e il conto alla rovescia verso il Mobile World Congress di Barcellona rendono questi annunci meno “tecnologia” e più “posizionamento industriale”: strumenti aperti per accelerare adozione, ma con confini chiari su governance dei dati e sicurezza operativa.

NVIDIA e le telco: l’autonomia inizia quando l’agente può dimostrare cosa sta facendo

Annuncio

Nel lessico delle telecomunicazioni, la differenza tra automazione e autonomia non è semantica. L’automazione esegue una runbook, l’autonomia interpreta un intento, valuta trade-off e sceglie un’azione che resta dentro vincoli di QoS, resilienza e consumo energetico. È qui che i blueprint agentici cercano di entrare: non come “copilota” che suggerisce, ma come sistema che produce decisioni con validazione in closed-loop prima di toccare la rete live. Questo dettaglio è il cuore della proposta, perché sposta la discussione dall’AI che “funziona” all’AI che “si può mettere in produzione” senza trasformare ogni change in un azzardo. Dentro questo schema si colloca il rilascio di un Large Telco Model open source da 30 miliardi di parametri basato su Nemotron, con fine-tuning orientato a terminologia e flussi da NOC. L’elemento che interessa davvero agli operatori non è la dimensione in sé, ma la possibilità di deploy on-premise con controllo sui dati e sul ciclo di vita, perché in ambito telco la sovranità del dato non è un’opzione, è un requisito. La guida open source collegata alla pipeline NeMo-Skills, realizzata con Tech Mahindra, insiste inoltre su un punto tipicamente “da produzione”: insegnare al modello a ragionare come un ingegnere, generando trace strutturate che includono azioni, chiamate tool e decisioni, cioè materiale utile per audit, troubleshooting e governance.

Blueprint per efficienza energetica RAN: policy intent-driven con simulazione prima del campo

Il primo blueprint citato entra in una delle variabili che oggi fanno più male alle reti: l’energia della RAN. L’idea è passare da ottimizzazioni statiche a policy intent-driven, in cui l’agente produce configurazioni orientate a obiettivi, le sottopone a simulazione e le promuove solo dopo aver raccolto evidenza che non degradano i parametri critici. La validazione con VIAVI TeraVM AI RAN Scenario Generator rende esplicita la direzione: la rete non è un banco prova, lo è l’ambiente simulato. In un’epoca in cui il costo energetico si intreccia con pressione regolatoria e sostenibilità, la differenza tra “riduciamo consumi” e “riduciamo consumi senza rompere la rete” diventa la differenza tra sperimentazione e adozione.

Blueprint multi-vendor: quando l’eterogeneità obbliga a una governance più dura del solito

Il secondo blueprint tocca il tema che separa sempre la teoria dalla pratica: il multi-vendor. Nelle reti reali convivono stack e apparati diversi, e l’eterogeneità produce attrito proprio dove l’autonomia vorrebbe correre, cioè nella gestione dei cambiamenti. In questo contesto, la promessa non è soltanto “configurare”, ma configurare con monitoraggio continuo, cambiamenti automatici e rollback sicuri, cioè con una disciplina che assomiglia più all’ingegneria del software che al vecchio mondo telco. I riferimenti a casi d’uso come Cassava Technologies per una rete autonoma in Africa e NTT DATA con un operatore tier-1 in Giappone servono a posizionare il blueprint in contesti dove l’errore costa, e dove la latenza decisionale non può essere solo umana. L’evoluzione multi-agente, con Telenor Group come primo adopter e l’integrazione di NeMo Agent Toolkit e BubbleRAN Agentic Toolkit dentro Opti-Sphere per una rete 5G Maritime, spinge un altro punto: quando aumentano gli agenti, aumenta anche il bisogno di coordinamento, e quindi la piattaforma deve diventare un sistema di regole, non un insieme di bot.

GSMA Open Telco AI: l’open source come normalizzazione industriale

L’ingresso di blueprint e modello nell’iniziativa GSMA Open Telco AI cambia il peso della notizia. La mossa colloca risorse e strumenti in un perimetro che tende a diventare “comune”, cioè replicabile da operatori diversi e quindi più rapidamente industrializzabile. In termini concreti, significa spingere l’adozione con asset aperti che gli operatori possono personalizzare su dati proprietari, mantenendo al centro trasparenza e sicurezza. Nell’ecosistema telco, l’open non vale come gesto: vale se rende un workflow più verificabile, più auditabile, più governabile. È questo il tipo di “apertura” che può reggere in produzione.

AI-RAN software-defined: GPU condivise tra AI e rete, verso 6G AI-native

Sul fronte radio, la narrativa resta coerente: portare AI e RAN nello stesso spazio computazionale, unificando la GPU come risorsa per elaborazione concorrente. In questa cornice rientrano i trial che mostrano co-esecuzione di workload AI e RAN, le demo massive MIMO e i benchmark orientati a throughput e latenza. Il messaggio non è che la rete “diventa AI”, ma che la rete diventa più programmabile e quindi più rapida a evolvere, perché la catena di innovazione si sposta dal ferro al software. Quando questo succede, il salto verso un 6G AI-native smette di essere un manifesto e inizia a somigliare a un percorso. L’elemento strategico è che NVIDIA prova a rendere questa traiettoria anche “aperta” a livello di librerie, con componenti CUDA-accelerated per RAN e un ecosistema che dichiara prodotti off-the-shelf. In altre parole, il sistema non deve restare una demo da evento: deve diventare una filiera.

LillyPod: 9000 petaflops come fabbrica di ipotesi nella scoperta farmaci

Il secondo annuncio, quello di Eli Lilly, cambia dominio ma non cambia logica. LillyPod viene presentato come una AI factory interna, posseduta e gestita dall’azienda, costruita attorno a un DGX SuperPOD con 1016 GPU Blackwell Ultra e oltre 9000 petaflops. Il dettaglio infrastrutturale conta perché racconta un’intenzione: non “noleggiare potenza”, ma incorporare la computazione come capacità strategica permanente, dentro un perimetro che deve restare compatibile con vincoli regolamentati e proprietà del dato.

image 35
Reti mobili autonome e farmaci scoperti in silico: NVIDIA lancia l'era della AI Factory agentica 4

La promessa operativa è il passaggio dal wet lab come collo di bottiglia al dry lab come primo filtro massivo. L’obiettivo dichiarato è testare miliardi di ipotesi prima della sintesi fisica, usando modelli come diffusione proteica, reti neurali a grafo per piccole molecole e foundation model genomici. Qui la potenza diventa un moltiplicatore di esplorazione: invece di accelerare solo il calcolo, accelera la selezione, riducendo il numero di strade “costose” percorse in laboratorio.

TuneLab e federated learning: condividere modelli senza esporre dati

Accanto a LillyPod arriva TuneLab, che porta un messaggio interessante per l’ecosistema biotech: accesso a modelli costruiti su dati proprietari, con un impianto che mira a far convivere collaborazione e protezione dell’IP. Il meccanismo chiave è il federated learning basato su NVIDIA FLARE, che permette alle aziende di mantenere i propri dati separati e privati, contribuendo comunque al miglioramento collettivo dei modelli. In un settore dove i dati sono al tempo stesso carburante e asset competitivo, questa architettura prova a rendere praticabile una cooperazione che altrimenti resterebbe teorica. In termini di fabbrica, NVIDIA mette sul tavolo anche la parte di orchestrazione e controllo, perché una AI factory non è solo addestramento: è scheduling, osservabilità, gestione di workload e ripetibilità dei processi. È proprio questa ripetibilità che rende credibile l’uso in ambienti regolamentati.

La convergenza tra telco e pharma: stessa architettura, stesso problema, stessi vincoli

La lettura più utile del doppio annuncio è che NVIDIA sta cercando di stabilire un linguaggio comune per due mondi diversi ma simili nei vincoli: telco e pharma sono entrambi settori dove serve affidabilità, dove l’errore ha costo reale, dove il dato è sensibile e dove l’AI deve essere governata, non “solo usata”. Nelle telco il closed-loop serve a evitare incidenti operativi, nel pharma il dry lab serve a ridurre sprechi e tempi nella selezione scientifica, ma la struttura mentale è la stessa: spostare decisioni e validazioni in un ambiente controllato prima di agire nel mondo fisico. Con il MWC come amplificatore, questi asset diventano anche strumenti di pressione sulle roadmap: per gli operatori significa confrontarsi con l’idea di reti più autonome e più efficienti, per il biotech significa confrontarsi con l’idea che la computazione a scala diventi un requisito competitivo. In questo quadro, NVIDIA non vende solo GPU. Prova a vendere un metodo: agenti + simulazione + on-premise + governance, cioè una forma di AI pensata per restare in piedi quando smette di essere un annuncio e diventa una responsabilità.

Iscriviti alla Newsletter

Non perdere le analisi settimanali: Entra nella Matrice Digitale.

Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.

Torna in alto