Sommario
Amnesty International accusa X (ex Twitter) di aver avuto un ruolo centrale nella diffusione di disinformazione che ha alimentato le rivolte razziali nel Regno Unito, scoppiate dopo gli omicidi di Southport nel luglio 2024. Il rapporto dell’organizzazione evidenzia come l’algoritmo di X, progettato per privilegiare l’engagement, abbia amplificato contenuti infiammatori, contribuendo a generare disordini che hanno provocato perdite umane e oltre mille arresti. Il caso scatenante è stato l’attacco compiuto da Axel Rudakubana, un diciassettenne che ha ucciso tre bambine e ferito dieci persone durante una lezione di danza. A seguito dell’incidente, X ha visto un’esplosione di post fuorvianti su identità, religione e status migratorio dell’attentatore, innescando una reazione violenta in diverse città del Regno Unito. Amnesty punta il dito contro la mancanza di salvaguardie nella sezione “For You”, che ha amplificato contenuti ostili, molti dei quali rilanciati da Elon Musk in persona, con un impatto stimato di oltre 808 milioni di impressioni. Le critiche coinvolgono anche il fallimento dell’Online Safety Act, incapace di affrontare contenuti dannosi ma legali, mentre cresce il pressing su X e sulle istituzioni per una maggiore accountability algoritmica.
Critica all’algoritmo di X
Amnesty approfondisce il funzionamento dell’algoritmo di X, reso open source nel 2023, rilevando che la piattaforma favorisce contenuti polarizzanti perché generano maggiore engagement. L’analisi ha mostrato che l’algoritmo non valuta adeguatamente l’impatto umano dei post raccomandati, né prevede filtri efficaci contro contenuti ostili in momenti di crisi sociale. Profili noti per narrative far-right, come l’account “Europe Invasions”, hanno guadagnato visibilità proprio grazie alla struttura del ranking di X. Pat de Brún, a capo del team Amnesty per la responsabilità delle Big Tech, sottolinea come il design stesso della piattaforma abbia accresciuto i rischi di escalation violenta. Amnesty ha esaminato le policy su Violent Speech, Hateful Conduct e Synthetic Media, giudicandole insufficienti per una moderazione proattiva. L’organizzazione raccomanda che le piattaforme social introducano valutazioni d’impatto sui diritti umani prima del rilascio di nuovi algoritmi, e osserva che strumenti come Community Notes non sono in grado di contrastare efficacemente la viralità dei post offensivi. Il rapporto conclude che l’attuale configurazione di X amplifica la disinformazione razziale, aumentando la probabilità di violenza offline.
Eventi delle rivolte e ruolo della disinformazione
Le rivolte razziali hanno avuto inizio il 29 luglio 2024, in seguito all’omicidio di tre bambine da parte di Axel Rudakubana a Southport. L’attacco ha rapidamente generato una cascata di disinformazione sulla piattaforma X, con falsi claim sulla religione e la cittadinanza dell’attentatore. Le speculazioni hanno alimentato una narrativa anti-migranti e anti-musulmana, con particolare virulenza a Manchester e Liverpool. Secondo il National Police Chiefs’ Council, le rivolte hanno portato a 1.876 arresti, di cui 1.110 con accuse formali, tra incitamento all’odio online e partecipazione a manifestazioni violente. È emerso che Rudakubana era stato segnalato tre volte al programma Prevent, ma rilasciato nonostante l’interesse per eventi terroristici come l’attacco alla Manchester Arena. Il governo britannico ha avviato una revisione del programma, culminata con 14 raccomandazioni pubblicate nel febbraio 2025. Le forze dell’ordine hanno denunciato che i social media sono stati strumento primario di incitamento, con post violenti diffusi senza filtri. Amnesty critica i ritardi nella rimozione dei contenuti da parte di X, sottolineando che il volume e la viralità dei messaggi hanno reso impossibile contenerne l’impatto. L’evento ha messo in evidenza le falle normative dell’Online Safety Act, giudicato inefficace contro contenuti legali ma potenzialmente pericolosi.
Ruolo di Elon Musk nell’amplificazione dei contenuti
Elon Musk, proprietario di X, è finito al centro delle critiche per aver contribuito direttamente alla viralizzazione dei contenuti divisivi. Secondo i dati forniti da Marc Owen Jones al Parlamento britannico, Musk ha pubblicato 46 post durante le rivolte, generando 808 milioni di impressioni, e amplificando contenuti provenienti da figure controverse come Tommy Robinson, noto per le sue posizioni islamofobe. Robinson, reintegrato su X dopo l’acquisizione da parte di Musk nel 2022, ha generato da solo oltre 580 milioni di impressioni. Amnesty denuncia che la visibilità degli account di alto profilo come quello di Musk ha trasformato la disinformazione in contenuto mainstream, con conseguenze reali sulla coesione sociale. Musk ha difeso la libertà di espressione, ma ha anche minacciato azioni legali contro i media per le critiche rivoltegli, esacerbando il clima di tensione. Le policy di X vengono descritte da Amnesty come incapaci di gestire gli effetti sistemici della viralità algoritmica, mentre il ruolo di Musk solleva interrogativi su come l’influenza personale di un singolo individuo possa alterare il discorso pubblico su scala globale. Le critiche dei parlamentari britannici pongono l’accento sulla necessità di nuove norme in grado di regolamentare l’impatto sociale delle piattaforme, al di là della semplice rimozione dei contenuti illegali.
Risposta di X e limiti dell’Online Safety Act
X ha replicato alle accuse dichiarando di essere impegnata nella sicurezza degli utenti, utilizzando machine learning e revisione umana per intercettare contenuti violenti. Ha richiamato le proprie policy su Violent Speech, Hateful Conduct e Synthetic Media, citando il ruolo delle Community Notes come strumento di fact-checking. Secondo un portavoce di X, i team di sicurezza agiscono rapidamente per mitigare i rischi prima che i post raggiungano ampie audience. Tuttavia, le critiche legislative si concentrano sull’inefficacia dell’Online Safety Act del 2023, che si limita a contenuti illegali, trascurando quelli legalmente permessi ma potenzialmente dannosi. La deputata Dame Chi Onwurah, presidente della commissione parlamentare per scienza e tecnologia, ha affermato che l’OSA non offre strumenti concreti per moderare l’algoritmo. Il governo britannico valuta ora modifiche normative che includano audit algoritmici obbligatori e maggiore trasparenza sui criteri di ranking dei contenuti. Nel frattempo, X ha sospeso account ritenuti responsabili di incitamento alla violenza, ma Amnesty giudica le misure tardive e insufficienti. Il dibattito si allarga alla necessità di regolamentare l’intera architettura delle piattaforme social, considerando non solo i contenuti, ma anche le logiche di amplificazione automatica che li rendono virali. Il Regno Unito considera l’introduzione di un fact-checking obbligatorio su post ad alto impatto, una proposta che solleva questioni su libertà d’espressione e governance algoritmica.
Impatto sulle politiche di sicurezza online
Le rivelazioni contenute nel rapporto di Amnesty hanno rilanciato il dibattito sulla sicurezza digitale e la responsabilità algoritmica, evidenziando le lacune normative nel Regno Unito. Il caso X mostra che anche contenuti formalmente legali possono avere effetti devastanti sul tessuto sociale, se amplificati in contesti critici. I parlamentari chiedono ora riforme strutturali che prevedano valutazioni d’impatto prima dell’introduzione di nuove funzionalità algoritmiche. La vicenda ha anche attirato l’attenzione della Commissione europea, che monitora la compliance al Digital Services Act (DSA), sollecitando X a trasparenza e collaborazione. Amnesty avverte che l’amplificazione di contenuti razzisti e violenti rappresenta una minaccia sistemica ai diritti umani, con potenziali effetti su ordine pubblico, coesione sociale e stabilità democratica. Sul piano globale, il caso ha innescato una riflessione sulla necessità di audit indipendenti sugli algoritmi, da parte di enti terzi. Il governo britannico sta considerando la creazione di una task force contro la disinformazione, mentre piattaforme come X si trovano sotto crescente pressione per adattare le proprie policy. Gli utenti, intanto, diventano più consapevoli dei meccanismi di manipolazione dell’informazione, contribuendo al cambiamento del panorama normativo.
Dettaglio tecnico: struttura dell’algoritmo di X
L’algoritmo di X funziona attraverso un sistema di machine learning e reti neurali grafiche, che calcola un punteggio di engagement basato su like, retweet, visualizzazioni e tempo di permanenza. I contenuti vengono poi ordinati nel feed “For You” in base a questo punteggio. Il modello, tuttavia, non integra metriche di impatto sociale o rilevanza etica, rendendo vulnerabile la piattaforma all’amplificazione di contenuti polarizzanti e divisivi. La struttura privilegia contenuti che massimizzano la retention degli utenti, anche a scapito della qualità informativa. Le Community Notes, introdotte per mitigare la disinformazione, agiscono ex post e non influenzano direttamente il ranking. Amnesty sottolinea che la mancanza di filtri proattivi consente la crescita incontrollata di post ostili, e raccomanda l’adozione di meccanismi di impact assessment preventivi per tutte le nuove feature algoritmiche.