Australia blocca i social ai minori, mentre la rete russa di fake news scala con l’AI

di Redazione
0 commenti 9 minuti di lettura

L’Australia introduce un blocco dei social media per i minori di 16 anni a partire dal 10 dicembre 2025, imponendo a piattaforme come Facebook, Instagram, TikTok e altre di verificare l’età degli utenti attraverso un approccio a cascata che combina segnali comportamentali, linguistici e di rete. Il commissario eSafety Julie Inman Grant chiarisce che le piattaforme devono operare con “gentilezza, cura e comunicazione chiara”, mentre il governo, per voce del ministro delle Comunicazioni Annika Wells, riconosce i limiti tecnologici e l’impossibilità di una perfezione assoluta nell’age assurance. In parallelo, una rete di disinformazione russa guidata dall’ex deputy USA John Mark Dougan, nota come CopyCop e attribuita come Storm-1516, utilizza LLM senza licenza come Llama 3 per generare deepfake e articoli falsi in più lingue, arrivando a oltre 300 siti nel 2025 e colpendo USA, Ucraina, Francia e altri Paesi europei. Le due traiettorie si intrecciano su un terreno comune: tutela dei minori e integrità dell’informazione, con piattaforme chiamate a bilanciare privacy e sicurezza in un contesto in cui tagli alla sicurezza elettorale negli USA e sforzi di propaganda sostenuti da infrastrutture self-hosted complicano la risposta istituzionale e industriale.

Linee guida eSafety: cosa cambia per le piattaforme

Le nuove regole obbligano le piattaforme a impedire l’accesso a utenti sotto i 16 anni, imponendo verifiche d’età progressive e documentate. L’eSafety pubblica una guidance dettagliata che definisce standard tecnici, criteri di ragionevolezza e obblighi di trasparenza: le piattaforme scelgono gli strumenti, ma devono giustificare le scelte e dimostrare come i flussi di verifica riducano gli errori. Il principio operativo è la sequenzialità: si parte da segnali a bassa intrusività e si procede, solo se necessario, verso controlli più stringenti, preservando l’esperienza utente e i diritti di privacy. L’obiettivo dichiarato è ridurre l’esposizione dei minori a contenuti tossici, mitigando rischi di grooming, cyberbullismo e danni alla salute mentale, con un impatto atteso su oltre 5 milioni di minori nel Paese.

Verifica a cascata: segnali, soglie e “ragionevolezza”

Il metodo “waterfall” combina più segnali per stimare l’età senza ricorrere subito a documenti ufficiali. I primi strati analizzano età dichiarata dell’account e coerenza storica; in caso di incongruenze, il sistema valuta interazioni con contenuti per bambini, linguaggio utilizzato nei post e nei messaggi, pattern di attività riconducibili a routine scolastiche, collegamenti con reti di utenti under-16 e partecipazione a gruppi giovanili. Se i segnali restano ambigui, si attivano verifiche visive o audio più avanzate, sempre proporzionate all’esigenza di certezza. Questo approccio cerca di ridurre i falsi positivi, evitando che adulti vengano bloccati per errore, e di limitare il profiling superfluo; la ragionevolezza guida tutta la catena di decisione, così da non trasformare la protezione in sorveglianza indiscriminata.

Sospensioni, riattivazioni e percorso utente

Quando l’algoritmo o il controllo umano concludono che l’utente è under-16, l’account può essere sospeso; i dati vengono preservati per la riattivazione al compimento dei 16 anni. Le piattaforme devono comunicare in modo chiaro i passaggi, fornire istruzioni e, se opportuno, accompagnare verso servizi alternativi più adatti all’età. L’enforcement punta a essere educativo oltre che restrittivo, con il mantra ufficiale di eSafety centrato su “kindness, care and clear communication”. La trasparenza procedurale diventa un criterio di conformità, valutato con audit e report periodici.

Sanzioni e costi di conformità

Le sanzioni per non conformità raggiungono fino a 50 milioni di dollari, pari a circa 45,86 milioni di euro alla conversione indicata, e colpiscono sia mancati controlli sia pratiche di verifica ritenute irragionevoli o eccessivamente invasive. Le piattaforme segnalano costi elevati e complessità d’implementazione, tanto che Meta paventa ritardi nei rollout. Il governo australiano replica che l’equilibrio tra privacy e sicurezza e la logica di ragionevolezza restano i criteri cardine per giudicare le soluzioni tecniche adottate.

Limiti tecnologici, falsi positivi e critiche

Le istituzioni riconoscono che nessuna tecnologia è perfetta. Annika Wells chiarisce: “Non ci aspettiamo perfezione”. Il commissario Julie Inman Grant ribadisce il ruolo della gentilezza nell’enforcement. Dal fronte tecnico, Justin Warren (“Teoricamente, con tool specifici e condizioni controllate, la verifica età funziona a volte”) mette in luce il rischio che i sistemi siano affidabili in laboratorio ma fragili nel mondo reale. Il profiling invasivo è il timore più citato dalla tech community, insieme alla possibilità di over-blocking di adulti a causa di pattern comunicativi o comportamentali ambigui. La guidance eSafety tenta di rispondere con soglie progressive, valutazioni multilivello e rendicontazione degli impatti, ma la frizione tra tutela e riservatezza resta un punto caldo.

Tempistiche e monitoraggio

Il 10 dicembre 2025 segna l’inizio del monitoraggio della compliance; l’eSafety pubblica un PDF di guidance e programma un report di enforcement nel 2026, con valutazioni su efficacia del ban e adattamenti regolatori basati su dati. L’obiettivo dichiarato è uniformare gli standard tra piattaforme e avviare coordinamento con l’UE, favorendo interoperabilità di criteri e valutazioni indipendenti. L’industria, intanto, testa e integra tool multipli per contenere gli errori e documentarne la riduzione nel tempo.

CopyCop/Storm-1516: architettura, tattiche e scala

Sul fronte opposto, CopyCop—identificato come Storm-1516rilancia una troll farm transnazionale sfruttando LLM self-hosted come Llama 3, evadendo filtri e moderazioni. La rete riscrive articoli legittimi, genera deepfake e imita media locali, aumentando credibilità e tasso di condivisione. Nel 2025 il totale dei siti supera quota 300, con 35 domini registrati già a gennaio e una crescita sostenuta nei mesi successivi. Matt Mooney (Insikt Group) avverte: “L’espansione infrastrutturale mostra intento di persistere”, segnalando una scalata logistica che non si limita alla produzione dei contenuti, ma coinvolge server dedicati, reti di distribuzione e canali social ad alta trazione.

Imitazione dei media locali e domini di comodo

La rete costruisce ecosistemi fittizi attorno a domini .com e .news con nomi credibili e geolocalizzati. Negli USA compaiono siti come clearstory.news e allstatesnews.us; in Canada albertaseparatist.com e torontojournal.ca sfruttano narrazioni localistiche legate a tensioni identitarie. Per aggiungere autorevolezza, CopyCop crea pseudo-fact-checker in turco, ucraino e swahili, riducendo l’attrito culturale e linguistico e aumentando la probabilità di fiducia tra pubblici di nicchia.

Narrazioni, deepfake e targeting politico

Le narrazioni puntano a polarizzare e minare la fiducia nei media e nelle istituzioni. A marzo 2025 circola la storia secondo cui Zelensky avrebbe rubato fondi USA, supportata da documenti falsi e rilanci social. In parallelo, contenuti che dipingono Trump negativamente mirano a orientare la percezione degli elettori. Le tecniche deepfake amplificano plausibilità e portata, mentre i LLM uncensurati permettono adattamenti rapidi a contesti locali, dalla Moldova alla Germania, fino ad altri Paesi europei e nordamericani.

Attribuzioni, regia e infrastrutture

La rete viene collegata a GRU e al Center for Geopolitical Expertise, con John Mark Dougan che opera da Mosca dal 2016 in asylum politico. Il finanziamento di server LLM e la distribuzione multi-lingua indicano una struttura resiliente, capace di persistere nonostante i takedown. Tra gennaio e aprile 2025 si osserva un salto di qualità: Recorded Future segnala 35 siti registrati in un singolo mese, quindi replicati e variati per eludere blacklist e tracciamenti.

Reazioni istituzionali e tagli alla difesa informativa

Negli USA, i senatori Mark Warner e Alex Padilla sollecitano un briefing a Tulsi Gabbard per il 15 settembre 2025, mentre si registra una riduzione degli sforzi CISA a causa di tagli di budget attribuiti a Kristi Noem. Gli election officials esprimono preoccupazione per i mid-term 2026, con la propaganda russa che guadagna trazione su Telegram e in reti social eterogenee. L’FBI condivide IOC e alert, ma la scala infrastrutturale di CopyCop e la capacità di evadere filtri con LLM self-hosted mantengono alta la superficie d’attacco informativa.

Impatto sociale: tra tutela dei minori e integrità del voto

L’azione australiana e la campagna russa mostrano due facce della stessa crisi digitale. Da un lato, la necessità di proteggere i minori da contenuti tossici; dall’altro, l’urgenza di difendere l’ecosistema informativo da reti di disinformazione che strumentalizzano l’AI. Entrambe le sfide impongono scelte tecniche e governance complesse, con piattaforme che devono bilanciare privacy, sicurezza, libertà di espressione e trasparenza. La misura australiana punta a un enforcement pragmatico basato su sequenze proporzionate, mentre CopyCop enfatizza l’agilità offensiva di LLM uncensurati e deepfake per modellare opinioni e accentuare polarizzazione.

Perché la “ragionevolezza” è centrale

Nel ban australiano, la ragionevolezza non è solo un principio etico: è una metrica operativa. Se un sistema blocca troppi adulti, fallisce il test di ragionevolezza; se raccoglie dati oltre il necessario, viola la proporzionalità. Le piattaforme devono quindi dimostrare che ogni strato della waterfall aggiunge informazione utile e riduce l’errore, senza trasformare la verifica in profilazione massiva. La rendicontazione di falsi positivi/negativi, la documentazione dei tassi di errore e la chiarezza comunicativa verso gli utenti costituiscono requisiti di conformità.

Il nodo privacy: evitare il profiling eccessivo

Le critiche della tech community si concentrano sui rischi di profiling. I segnali linguistici o i pattern di attività possono essere sensibili e contestuali; usati in modo meccanico, generano stereotipi o bias. La guidance insiste sull’uso di metodi sequenziali, sull’esplicazione dei criteri e su controlli umani nei passaggi più delicati. L’obiettivo è raggiungere protezione senza normalizzare forme di sorveglianza che comprimano diritti e libertà fondamentali.

Scala globale: standard e coordinamento internazionale

L’Australia mira a unificare gli standard tra piattaforme e a coordinare con l’UE su metodi e indicatori. La circolazione transnazionale dei contenuti—sia nocivi per i minori sia disinformativi—impone criteri compatibili e canali di scambio tra autorità e industrie. La traiettoria prevista include audit 2026, adattamenti basati su evidenze e metriche di efficacia. Nel frattempo, la rete russa persiste e si espande, imita media locali, aggira i controlli con LLM e deepfake, e sfrutta momenti politici sensibili su scala globale.

Esempi di casi e traiettorie narrative

Il ricorso a siti-specchio e marchi locali crea familiarità e fiducia apparente. Cronache su fondi ucraini rubati o scandali fittizi si insediano in flussi social, cementano pregiudizi preesistenti e scivolano nelle chat private dove la smentita è più difficile. In mercati eterogenei, la rete adatta il lessico, riusa template di notizie e varia i frame emotivi per massimizzare engagement e viralità.

Implicazioni per piattaforme e utenti

Per le piattaforme, la doppia sfida significa investire sia in age assurance resilienti sia in rilevazione di reti coordinate. Gli utenti, invece, sperimenteranno più richieste di verifica, possibili sospensioni in caso di dubbio e comunicazioni più strutturate sulle politiche di accesso. Nel dominio informativo, ci si attende ondate di contenuti sintetici con qualità mimetica elevata, dove la distinzione tra vero e falso sarà sempre più dipendente da contesti e reti di fiducia.

Prospettive 2026: enforcement, audit e persistenza delle minacce

Il report di enforcement 2026 in Australia dovrà misurare riduzione dei rischi per i minori, tassi di errore e impatto su privacy e esperienza. Sul fronte opposto, la rete CopyCop/Storm-1516 annuncia espansioni, puntando a elezioni in Europa e ad appuntamenti americani come i mid-term 2026. La tensione tra regolazione protettiva e operazioni di influenza poggia su architetture tecniche in rapida evoluzione: da una parte waterfall e verifiche multilivello, dall’altra LLM e deepfake self-hosted capaci di eludere filtri e reinventare narrative.

Articoli correlati