Sommario
Meta si ritrova nuovamente al centro del ciclone. Il 19 luglio 2025 la società ha annunciato di aver raggiunto un accordo da 8 miliardi di dollari per chiudere una causa intentata dagli azionisti, relativa a gravi violazioni della privacy degli utenti. La notizia si somma alla recente scoperta di un bug critico nel chatbot Meta AI, una falla che ha potenzialmente esposto conversazioni private attraverso la manipolazione degli ID delle query. La risoluzione legale chiude un procedimento avviato nel 2018 che ha coinvolto direttamente anche Mark Zuckerberg, accusato di aver gestito in modo negligente le pratiche legate alla protezione dei dati. Contemporaneamente, la vulnerabilità tecnica del suo sistema di intelligenza artificiale, scoperta dal ricercatore Sandeep Hodkasia, ha rivelato rischi sistemici per la sicurezza delle comunicazioni AI.
Un accordo miliardario che evita interrogatori scomodi
Il settlement da 8 miliardi di dollari, raggiunto alla vigilia della testimonianza di Mark Zuckerberg in tribunale, chiude un lungo procedimento iniziato nel 2018 e culminato alla Delaware Court of Chancery. Al centro dell’azione legale vi sono accuse circostanziate di negligenza e inganno, legate a episodi emblematici come Cambridge Analytica. Gli azionisti sostenevano che Meta avesse ripetutamente mentito agli utenti sul controllo dei dati personali, violando precedenti accordi con l’FTC. La causa includeva anche sospetti su vendite azionarie sospette da parte dei vertici aziendali e la distruzione di documenti chiave, come nel caso dell’ex COO Sheryl Sandberg, accusata di aver cancellato email potenzialmente compromettenti. Il fatto che l’accordo sia stato raggiunto così rapidamente e prima delle testimonianze chiave ha sollevato dubbi sulla reale volontà di trasparenza da parte della dirigenza. Meta, pur continuando a negare le accuse, ha preferito chiudere la vicenda senza ulteriori danni reputazionali e senza esporsi ad ulteriori sanzioni pubbliche. Tuttavia, la dimensione economica dell’accordo segna un record storico per l’azienda e una svolta nel rapporto tra le Big Tech e i loro stakeholder.
Il bug in Meta AI: una falla che mette a rischio la privacy
Parallelamente all’accordo legale, Meta ha ammesso l’esistenza di un bug critico all’interno del proprio chatbot Meta AI, scoperto dal ricercatore Sandeep Hodkasia. La falla, rilevata a dicembre 2024 e corretta solo il 24 gennaio 2025, permetteva a utenti malintenzionati di accedere a conversazioni altrui semplicemente manipolando gli ID delle richieste di rete. Il sistema non prevedeva adeguati controlli di autorizzazione server-side, consentendo l’accesso a prompt e risposte non proprie attraverso numeri sequenziali. Meta ha dichiarato di non aver rilevato alcun uso illecito del bug, ma ha ricompensato il ricercatore con un bug bounty di 10.000 euro. La correzione ha comportato l’introduzione di token di validazione server e controlli di autorizzazione più rigorosi. La vicenda ha suscitato forte preoccupazione nella comunità di sicurezza informatica, che ha rilevato come anche le piattaforme più avanzate siano vulnerabili ad attacchi sistemici legati all’intelligenza artificiale. Gli utenti sono stati invitati ad evitare la condivisione di dati sensibili e a utilizzare modalità più sicure come la Incognito Mode per interagire con il chatbot.
Le implicazioni per la cybersecurity e la governance digitale
L’accoppiata tra violazione della privacy e vulnerabilità AI pone seri interrogativi sull’affidabilità delle piattaforme social nel 2025. La sanzione legale da 8 miliardi di dollari rappresenta un precedente per tutte le Big Tech in materia di accountability sulla gestione dei dati personali. Gli utenti, sempre più consapevoli, chiedono garanzie reali su come vengono trattate le loro informazioni. La falla in Meta AI dimostra invece che l’introduzione rapida di tecnologie basate su machine learning senza verifiche di sicurezza adeguate può tradursi in rischi critici per la privacy. L’assenza iniziale di barriere contro l’accesso non autorizzato ha evidenziato lacune gravi nei meccanismi di controllo interni. Meta ha risposto con aggiornamenti strutturali, audit interni e nuove policy, ma la fiducia degli utenti appare seriamente compromessa. L’episodio ha attirato anche l’attenzione delle autorità di regolazione, che potrebbero accelerare l’adozione di normative più severe in ambito di intelligenza artificiale e sicurezza informatica. Il rispetto del GDPR, i rischi legati allo shadowbanning e le tecniche di ranking algoritmico opaco sono oggi elementi di un dibattito sempre più urgente.
Verso una maggiore trasparenza e protezione dei dati
A seguito degli eventi, Meta ha intrapreso una serie di azioni correttive. Ha aggiornato le API di accesso e i sistemi di logging, ha avviato collaborazioni più strutturate con i ricercatori del settore e sta introducendo protocolli di autorizzazione più sicuri nei suoi strumenti AI. La piattaforma ha inoltre incentivato l’uso di strumenti di verifica privacy lato utente, come i controlli granulari su Discover Feed e l’autenticazione a due fattori. Al tempo stesso, ha rafforzato i filtri per i contenuti sensibili e pubblicato nuove linee guida sulla privacy che puntano a minimizzare i rischi futuri. In un contesto dove la fiducia degli utenti si misura sul piano della trasparenza e della sicurezza, episodi come questi delineano chiaramente le sfide del prossimo decennio: la gestione responsabile dei dati, la robustezza delle infrastrutture AI e la protezione dalle manipolazioni sistemiche.
Una società di Meta-Accattoni
La vicenda Meta non dovrebbe stupire: la giustizia, di fatto, varia in base alle risorse economiche. Un colosso come Meta dispone di capitali tali da dettare il bello e il cattivo tempo non soltanto nel proprio Paese, ma a livello globale. Il termine «Meta-Accattoni» nasce proprio da questa capacità delle società tech di arruolare, tramite intense attività di lobbying, soggetti interni alle istituzioni che si piegano alle proprie esigenze, facendo approvare leggi favorevoli o ignorando ostacoli normativi. Il risultato è un meccanismo che consente all’azienda di accumulare profitti enormi, per poi pagare sanzioni irrisorie rispetto al guadagno ottenuto illecitamente. È lo stesso metodo già visto nell’industria farmaceutica: prodotti immessi sul mercato grazie a certificazioni poco rigorose, ritirati successivamente, con il rimborso riconosciuto alle vittime o ai loro familiari. Il potere di queste big tech statunitensi influisce pesantemente anche sui nostri sistemi democratici. Se un’azienda può versare, in contanti, otto miliardi di euro per chiudere contenziosi — come avvenuto dopo lo scandalo Cambridge Analytica, che ha alterato le scelte di voto di segmenti significativi di popolazione — allora è evidente il rischio di corrodere le fondamenta stesse della fiducia pubblica. Non sorprende, dunque, che quotidianamente queste società si assicurino la collaborazione di figure operative nella pubblica amministrazione, consolidando un ciclo di influenza economica e politica difficilissimo da spezzare.