La Data Protection Commission (DPC) irlandese ha avviato un’inchiesta formale su X per verificare possibili violazioni del GDPR connesse alla generazione di immagini sessualizzate non consensuali tramite Grok, il modello sviluppato da xAI e integrato nella piattaforma. L’autorità, che agisce come capofila europea per X in quanto la società ha la propria sede UE in Irlanda, sta esaminando se la piattaforma abbia processato dati personali in modo lecito per addestrare e raffinare i modelli di intelligenza artificiale. L’indagine arriva dopo settimane di report mediatici su utenti che avrebbero utilizzato prompt per generare immagini intime di persone reali, inclusi minori, sollevando interrogativi sulla base giuridica del trattamento, sulla protezione dei dati by design e sull’eventuale svolgimento di una valutazione d’impatto (DPIA) adeguata prima del deployment del sistema. Se venissero accertate violazioni gravi, X rischierebbe sanzioni fino al 4% del fatturato globale, applicabili in tutti i 27 Stati membri UE e nello Spazio Economico Europeo.
Il ruolo della DPC e l’enforcement europeo su X
La DPC irlandese opera come autorità capofila per molte grandi piattaforme tecnologiche che hanno stabilito in Irlanda la propria sede europea. Questo significa che eventuali decisioni sull’inchiesta contro X potrebbero avere effetto diretto su tutto il mercato UE/EEA, con coordinamento attraverso il network delle autorità privacy e l’EDPB. Il vice commissario Graham Doyle ha chiarito che l’esame riguarda gli obblighi fondamentali previsti dal GDPR, con particolare attenzione al modo in cui X e xAI hanno raccolto, utilizzato e trasformato dati personali di utenti europei per addestrare Grok. L’indagine mira a verificare se il trattamento sia avvenuto in modo lecito, trasparente e proporzionato, e se siano state adottate misure tecniche adeguate per prevenire abusi. Non si tratta di un semplice controllo documentale. La DPC sta analizzando la catena di processamento dei dati, il flusso tra piattaforma e modello AI e le eventuali mitigazioni implementate dopo l’emersione dei casi mediatici.
Le possibili violazioni del GDPR: articoli chiave sotto esame
L’inchiesta si concentra su diversi articoli centrali del Regolamento generale sulla protezione dei dati. In primo luogo, l’articolo 5, che stabilisce i principi del trattamento, tra cui liceità, correttezza, trasparenza, minimizzazione dei dati e limitazione delle finalità. La domanda chiave è se i dati utilizzati per addestrare o raffinare Grok siano stati trattati in modo coerente con queste regole. Segue l’articolo 6, relativo alla base giuridica del trattamento. La DPC dovrà valutare se X possa invocare il consenso esplicito degli utenti o un presunto interesse legittimo per giustificare l’uso dei dati personali nel training del modello. Un ulteriore punto riguarda l’articolo 25, che impone la protezione dei dati by design e by default. Questo implica che Grok avrebbe dovuto essere progettato con meccanismi strutturali per prevenire la generazione di contenuti che possano violare diritti fondamentali, soprattutto quando coinvolgono immagini sessualizzate di persone reali. Infine, l’articolo 35 impone la redazione di una Data Protection Impact Assessment (DPIA) nei casi in cui il trattamento presenti rischi elevati per i diritti e le libertà delle persone fisiche. La DPC sta verificando se tale valutazione sia stata effettuata prima dell’introduzione o dell’evoluzione del sistema Grok.
Il contesto internazionale: un’ondata di indagini coordinate
L’inchiesta irlandese non è isolata. Nel Regno Unito, l’ICO (Information Commissioner’s Office) ha avviato il 3 febbraio un’indagine formale su Grok, mentre la Commissione europea ha già aperto a gennaio un procedimento nell’ambito del Digital Services Act (DSA) per verificare se X abbia valutato adeguatamente i rischi sistemici prima del rilascio di nuove funzionalità AI. In Francia, i procuratori hanno effettuato perquisizioni negli uffici di X a Parigi nell’ambito di un’indagine penale che include ipotesi di produzione di CSAM e contenuti negazionisti. Sono previste audizioni per dirigenti e rappresentanti della piattaforma. Anche negli Stati Uniti, il procuratore generale della California e l’Ofcom britannico stanno esaminando la gestione dei contenuti sessuali non consensuali generati tramite strumenti AI. Questo scenario evidenzia un coordinamento regolatorio internazionale sempre più stretto sulla governance dell’intelligenza artificiale generativa.
Grok e la controversia sulle immagini intime non consensuali
Il punto di rottura è stato rappresentato da report secondo cui utenti avrebbero sfruttato Grok per creare immagini sessualizzate realistiche raffiguranti persone esistenti. La possibilità di generare contenuti di questo tipo ha riacceso il dibattito sui deepfake, sulla tutela dei minori e sulla responsabilità delle piattaforme nell’implementare filtri preventivi efficaci. Secondo quanto emerso, Grok sarebbe stato in grado di elaborare prompt che trasformano riferimenti testuali in rappresentazioni visive potenzialmente lesive della dignità e della privacy delle persone coinvolte. Il nodo giuridico centrale è se tali output derivino dall’uso di dati personali reali e se questi siano stati integrati nel processo di addestramento senza una base giuridica adeguata. X avrebbe introdotto filtri e mitigazioni successive alla pubblicazione dei report, ma la DPC sta verificando se tali interventi siano stati tempestivi, sufficienti e strutturali, oppure solo correttivi ex post.
Implicazioni per X e xAI: rischi economici e reputazionali
Per X, l’indagine rappresenta una sfida regolatoria significativa in uno dei mercati più rilevanti a livello globale. Una sanzione fino al 4% del fatturato mondiale potrebbe tradursi in un impatto economico di vasta portata. Ma il rischio non è solo finanziario: la questione tocca la credibilità della piattaforma nella gestione dell’intelligenza artificiale. Per xAI, la società responsabile dello sviluppo di Grok, il caso rappresenta un banco di prova sulla capacità di integrare standard europei di privacy nei modelli generativi. L’eventuale accertamento di violazioni potrebbe obbligare a rivedere dataset, pipeline di addestramento e meccanismi di filtraggio. Sul piano reputazionale, l’associazione tra AI generativa e contenuti sessualizzati non consensuali, specialmente se coinvolgono minori, può erodere la fiducia degli utenti e aumentare la pressione politica su nuove restrizioni normative.
Rischi per gli utenti e diritti dei data subject
Per gli utenti europei, la questione non è astratta. Se Grok ha effettivamente processato dati personali identificabili per generare contenuti, si apre il tema dei diritti di accesso, cancellazione e opposizione previsti dal GDPR. I data subject potrebbero rivendicare il diritto a sapere se e come i propri dati siano stati utilizzati nel training del modello. Il rischio principale riguarda la creazione e diffusione di immagini non consensuali, che possono avere impatti devastanti sulla vita privata e professionale delle persone coinvolte. In particolare, la vulnerabilità dei minori rende il caso ancora più sensibile sotto il profilo giuridico e sociale. La DPC dovrà valutare anche se X abbia predisposto strumenti efficaci per consentire agli utenti di esercitare i propri diritti e se esistano meccanismi di opt-out reali e accessibili dall’addestramento dei modelli AI.
Un precedente per l’AI generativa sotto il GDPR
L’inchiesta segna un passaggio importante nell’applicazione del GDPR all’intelligenza artificiale generativa. Finora, molte discussioni si sono concentrate su principi astratti; ora l’enforcement entra nel merito concreto dell’addestramento dei modelli e della gestione degli output. Il caso potrebbe costituire un precedente su come le autorità europee interpretano la nozione di processamento dati personali nel contesto AI, soprattutto quando il modello produce contenuti che ricostruiscono o simulano caratteristiche riconducibili a individui reali. In parallelo, l’AI Act europeo sta definendo un quadro regolatorio complementare, ma il GDPR rimane lo strumento principale per sanzionare eventuali trattamenti illeciti. La combinazione tra GDPR, DSA e AI Act crea un ecosistema normativo che costringe le piattaforme a integrare la compliance nel ciclo di vita dei modelli.
Un cambio di paradigma nella governance dell’AI
L’indagine della DPC contro X non è solo una verifica tecnica, ma un segnale politico e regolatorio. Le autorità europee mostrano di voler applicare in modo rigoroso le norme esistenti anche alle tecnologie emergenti, senza attendere che nuovi regolamenti entrino pienamente in vigore. Per le piattaforme tecnologiche, questo implica una revisione profonda delle pratiche di raccolta, utilizzo e riutilizzo dei dati nell’addestramento dei modelli. Per gli utenti, significa un rafforzamento della tutela contro abusi legati alla generazione automatica di contenuti. La decisione finale della DPC potrebbe definire uno standard di riferimento per l’intero settore, stabilendo fino a che punto l’innovazione nell’AI generativa possa spingersi senza violare i principi fondamentali della protezione dei dati personali in Europa.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









