La ristrutturazione di Intel con 35.500 tagli in meno di due anni segna un passaggio drastico nel riequilibrio dei semiconduttori tra capitale, fabbriche e roadmap, mentre il resto dell’ecosistema spinge sull’acceleratore: Anthropic amplia su Google Cloud capacità TPU oltre un gigawatt entro il 2026, AMD investe 257 milioni di euro in un hub per fotonica del silicio a Taiwan per portare in produzione interconnessioni ottiche co-packaged, Tesla annuncia il chip AI5 con prestazioni dichiarate 40× superiori al precedente per l’inferenza a bordo veicolo e la Cina introduce uBIOS per sostituire UEFI, tassello strategico dell’autosufficienza lungo la catena firmware–OS. Il quadro è quello di una corsa a più velocità: mentre alcuni comprimono costi e organici per ritrovare redditività, altri spostano il baricentro su compute, interconnessione e sovranità tecnologica.
Cosa leggere
Ristrutturazione Intel: tagli, focalizzazione sugli ordini e rischio di perdita di talento
Sotto la guida di Lip-Bu Tan, Intel riduce la forza lavoro da 108.900 fine 2024 a 88.400 a settembre 2025, inclusi 83.300 in Intel e 5.100 nelle sussidiarie come Mobileye. L’obiettivo dichiarato è riallineare costi e capacità a una domanda più visibile, interrompendo la traiettoria espansiva precedente che aveva aggiunto oltre 20.000 persone e messo in moto impegni per 91,7 miliardi di euro in siti europei e americani. Gli oneri di ristrutturazione superano 917 milioni di euro nel secondo trimestre e restano significativi nel terzo. La nuova disciplina impone spese operative piatte e investimenti “only if booked”, ossia alimentati da commitment cliente. In parallelo la dirigenza protegge i core business dove il gruppo mantiene ampie quote, con circa due terzi del desktop e tre quarti del server, pur in un contesto in cui AI accelerators e GPU rivali sottraggono attenzione e budget. Il rovescio della medaglia dei tagli è il rischio di perdita di competenze critiche, dal kernel Linux ai team che digeriscono nodi processo e packaging avanzati. Senza talento e capex ben indirizzati, l’esecuzione sui processi di nuova generazione e sugli impegni foundry rischia colli di bottiglia. La strategia che privilegia visibilità di domanda mitiga il rischio di idle capacity, ma costringe a un difficile equilibrio tra time-to-market, costo e innovazione su cicli tecnologici sempre più rapidi. In assenza di un chiaro volano AI interno, Intel dovrà dimostrare che un’organizzazione più snella può ancora tenere il passo con chi scala computazione e interconnessione a ritmi da hyperscaler.
Anthropic e Google Cloud: TPU oltre 1 GW, scalabilità del compute e dipendenza contrattuale
L’accordo tra Anthropic e Google Cloud amplia l’accesso a TPU fino a un milione di istanze e oltre 1 GW di capacità complessiva entro il 2026, con la settima generazione TPU Ironwood a migliorare rapporto prestazioni/watt e latenze. Attraverso Vertex AI e il Marketplace, Claude raggiunge clienti enterprise e sviluppatori, da Figma a Palo Alto Networks fino a Cursor, sostenendo carichi critici in produzione. L’opzione asset-light evita capex infrastrutturali e accelera le release, trasferendo però sull’azienda il rischio di prezzi di compute e allocazioni vincolate a contratti pluriennali.
La promessa è ambiziosa: ricavi verso 23,8 miliardi di euro nel 2026 con modelli SOTA mantenuti tramite post-training ricorrente, distillazione e refresh del dataset. Per reggere la crescita, Anthropic deve ottimizzare il mix training–inference, sfruttare autoscaling e fissare SLA rigorosi, riducendo la volatilità del costo unitario per token. La scommessa è che efficienza TPU, integrazione cloud-native e portafoglio cliente premium producano margini sufficienti a sostenere il ciclo di ricerca senza il fardello di data center proprietari.
Hub AMD per la fotonica del silicio: dal rame all’ottico nelle dorsali AI
Con 257 milioni di euro su Tainan e Kaohsiung, AMD istituisce un hub R&D per fotonica del silicio, integrazione eterogenea e sistemi rack-scale AI, in sinergia con TSMC e atenei come la National Sun Yat-sen University. L’asse con l’ecosistema taiwanese consente un ciclo rapido tra design, packaging (SoIC-X, CoWoS) e caratterizzazione, mentre l’acquisizione di Enosemi porta IP e team su transceiver 16×112G Rx/Tx. La roadmap COUPE di TSMC introduce co-packaged optics con 1,6 Tb/s in Gen1, 6,4 Tb/s nel 2026-2027 e fino a 12,8 Tb/s prima del 2030, spostando la banda dal rame all’ottico per ridurre energia per bit e latenza tra acceleratori. Per i cluster AI, il collo di bottiglia migra dal compute all’interconnect: riducendo i salti elettrici e avvicinando ottica e ASIC nello stesso package, la scalabilità diventa funzione della topologia e della densità della rete ottica più che della sola potenza delle GPU. L’hub taiwanese posiziona AMD per integrare fotonica nei futuri Instinct e nelle piattaforme CPU-GPU di fascia alta, preparando una controffensiva alle soluzioni Nvidia in arrivo e allineando i prodotti con i vincoli reali dei data center: potenza, raffreddamento, spazio.
Tesla AI5: inferenza automotive e resa produttiva con die a mezza reticle
Il chip AI5 di Tesla promette fino a 40× le prestazioni di AI4 in task di inferenza per guida autonoma. La produzione avviene in USA con Samsung Texas e TSMC Arizona, sfruttando un design su mezza reticle per massimizzare le rese, ridurre la variabilità e contenere la potenza entro i limiti termici dell’automotive. L’architettura enfatizza località dati, SRAM ampia e pipeline vision-centrica con percorsi accorciati verso gli attuatori software di sensor fusion e pianificazione. A differenza di un acceleratore generalista, AI5 è ottimizzato per un cliente unico e un dominio circoscritto, evitando over-engineering su feature inutili. Questo consente latenze minori e prevedibilità, con possibili spillover su xAI in ambiti edge. La collaborazione con Samsung—che già produce AI4—e l’inserimento del die in uno sweet spot dimensionale rafforzano la robustezza del ramp, anche se i claim 40× richiederanno misure comparabili e indipendenti su carichi sensoriali reali.
uBIOS cinese: sovranità del firmware e catena di fiducia locale
Il Global Computing Consortium guidato da Huawei presenta uBIOS (Unified Basic Input/Output System) per rimpiazzare UEFI nel mercato domestico. Scritto da zero da un consorzio di 13 aziende, uBIOS mira a unificare il layer firmware e ad allinearlo al Document 79, il programma che punta a eliminare dipendenze occidentali entro il 2027. La piattaforma diventa fulcro per RISC-V e ARM locali, mentre su x86 globale UEFI rimane lo standard de facto. Sul piano tecnico, uBIOS offre la possibilità di definire secure boot, attestation e policy coerenti con i requisiti nazionali, accorciando tempi di certificazione in PA, energia e trasporti. Il controllo del firmware consente supply-chain attestation end-to-end e una gestione più trasparente di chiavi, microcode e lifecycle dei dispositivi. Sul piano strategico, è un tassello della sovranità digitale: riduce rischi extraterritoriali, crea lock-in interno e facilita la costruzione di un ecosistema hardware-software autosufficiente.
Nexperia e Wingtech: utili in crescita, flussi in tensione e minaccia all’automotive
Nel frattempo, Wingtech segnala pressioni di cassa su Nexperia, pur con profitti trimestrali in forte crescita. La frizione tra la sede olandese e la filiale cinese—culminata nel rifiuto del licenziamento di un dirigente da parte di Nexperia Cina—mette in luce quanto la produzione locale, responsabile del 70% dell’output globale del gruppo, sia un perno sia industriale sia politico. Le ripercussioni si vedono nell’automotive: fornitori come Valeo coprono fino al 95% della domanda per Volkswagen e BMW, mentre alcune case giapponesi segnalano rischio di stop in assenza di scorte sufficienti. La lezione è che i chip maturi sono fondamentali quanto quelli d’avanguardia, e che la geopolitica può piegare supply chain ritenute “banali”.
Lettura incrociata: capital intensity, interconnessione e standard locali
Il filo rosso è un ribilanciamento tra capex, talento e standard. Il taglio dei costi in Intel indica che la competizione non si vince solo con più fabbriche, ma con execution chirurgica e mix prodotto convincente. L’accordo Anthropic–Google dimostra che la scala del compute diventa un servizio: chi riesce a comprare tempo anziché edifici può iterare più velocemente, ammortizzando la curva di apprendimento. L’hub AMD scommette che il collo di bottiglia strutturale sia l’interconnect e che la risposta sia ottica, non semplicemente più TOPS. Tesla ricorda che per l’edge critico conta la latenza sostenuta e la termica più che i picchi teorici. uBIOS sancisce che il firmware è uno strato strategico tanto quanto un nodo litografico: controllarlo in casa significa decidere tempi, chiavi e perimetri di fiducia.
Implicazioni per CIO e team infrastruttura: cosa validare nel 2026
Per chi pianifica piattaforme AI e HPC, la priorità è misurare energia per bit, banda effettiva e latenze end-to-end, non solo potenza di calcolo. La migrazione a co-packaged optics richiede aggiornamenti di telemetria e operatività: leakage termico, policy di throttling, hot-swap e gestione errori fotonici. Sul fronte cloud, accordi TPU di lunga durata vanno blindati con SLA, reserved capacity e clausole di price protection. Per l’edge automotive e industriale, la verifica è su pico-latenze, safety case e fail-operational. In ambito sovranità, la discesa di uBIOS impone un ciclo di valutazione su integrazione con secure boot, HSM e pipeline di attestation.
Come si redistribuirà il vantaggio competitivo
Chi integra fotonic-ready e compute-elastic con standard locali robusti otterrà un vantaggio composito: densità a rack, time-to-value ridotto, minor fragilità geopolitica. Gli altri dovranno scegliere la loro asimmetria: basso opex e alto capex con data center proprietari, oppure alto opex e bassa immobilizzazione delegando al cloud. Il segmento chip maturi resta un single point of failure: senza dual-sourcing e buffer di sicurezza, il rischio operativo supera quello finanziario. Il biennio 2025–2026 vede convergere quattro vettori tecnici. Primo, la standardizzazione firmware con uBIOS sposta la sicurezza dal solo OS a una catena di attestation guidata, con benefici su compliance e certificazioni. Secondo, la fotonica del silicio e le co-packaged optics ribaltano il bilancio energetico dei cluster AI, portando la banda nel package e riducendo il costo della coerenza tra acceleratori. Terzo, l’inferenza edge come AI5 si ottimizza su SRAM locality e die mezza reticle, privilegiando resa e potenza sostenuta rispetto al picco nominale. Quarto, la scala cloud di TPU impone governance di capacità riservata, SLA e hedging per reggere i ritmi del post-training continuo. In questo contesto, la ristrutturazione Intel è sostenibile solo se accompagnata da un core di innovazione misurabile: senza investimenti selettivi su packaging, interconnect e software di sistema, i tagli restano contabilità. Con una regia tecnica coesa, invece, possono diventare il volano per un ritorno all’execution di prodotto.