Sommario
Criminali sfruttano la tecnologia deepfake per impersonare Marco Rubio, segretario di Stato USA, con l’obiettivo di estrarre segreti governativi da alti funzionari. L’attacco, altamente sofisticato, utilizza intelligenza artificiale per replicare voce e stile di scrittura del politico, contattando i bersagli attraverso l’app Signal.
L’incidente emerge da un cablogramma del Dipartimento di Stato, datato 3 luglio 2025, che avverte i diplomatici su tentativi di impersonificazione. L’attore malevolo crea un account Signal con il nome “[email protected]“, che non corrisponde all’email reale, e invia messaggi vocali e testuali ad almeno cinque individui: tre ministri degli Esteri stranieri, un governatore USA e un membro del Congresso. Secondo gli esperti, bastano 15-20 secondi di audio pubblico per generare voci sintetiche tramite servizi online. Questo metodo sfrutta la popolarità di Signal nel governo USA, dove l’app è apprezzata per la comunicazione immediata ma presenta gravi vulnerabilità di sicurezza.
Il cablogramma invita a segnalare eventuali contatti sospetti al Bureau of Diplomatic Security o all’FBI. L’analista Hany Farid, professore alla University of California, Berkeley, sottolinea l’estrema facilità operativa dell’attacco: chiunque può generare messaggi vocali non interattivi semplicemente caricando un file audio. Questo caso segue un modello già visto, come l’impersonificazione di Susie Wiles, capo di gabinetto della Casa Bianca, avvenuta a maggio 2025. L’obiettivo è sempre lo stesso: manipolare contatti per ottenere informazioni sensibili o accessi a infrastrutture critiche.
I dettagli dell’attacco deepfake
La campagna criminale inizia a metà giugno 2025. I bersagli sono funzionari di alto profilo: tre ministri esteri, un governatore USA e un membro del Congresso. I messaggi, voicemail e testi, vengono inviati tramite l’app Signal, nota per la crittografia end-to-end ma priva di meccanismi antifrode.
Il Dipartimento di Stato pubblica un cablogramma il 3 luglio, che descrive nel dettaglio l’evento e invita alla massima allerta su altre potenziali impersonificazioni. L’impostore adotta un display name falsificato, rendendo difficile l’identificazione. Non è noto se qualcuno abbia risposto ai messaggi o se vi sia stata fuoriuscita di dati sensibili. L’FBI, già informata a maggio su campagne simili, ha avviato un’indagine. Il direttore Kash Patel ha ribadito la priorità nel proteggere le comunicazioni ufficiali. Diverse fonti, tra cui Moxso, collegano l’attacco a threat actor russi.
L’episodio non è isolato: a marzo 2025, il consigliere per la sicurezza nazionale Mike Waltz ha accidentalmente aggiunto un giornalista a un gruppo Signal, causando la fuga di informazioni sensibili. L’amministrazione Trump è stata criticata per l’uso di app non ufficiali. L’attacco a Marco Rubio segna una escalation: combina deepfake audio e social engineering per ottenere liste contatti, credenziali e accessi privilegiati. Gli esperti digitali forensi sono al lavoro per identificare eventuali tracce di generazione AI.
Aspetti tecnici dell’impersonificazione AI
La tecnologia deepfake audio richiede input minimi: bastano 15-20 secondi di audio per addestrare un modello AI. Servizi online permettono di scrivere un testo e ottenere un file vocale sintetico. I voicemail sono ideali poiché non richiedono interazione in tempo reale. Hany Farid osserva come l’audio pubblico di Rubio sia facilmente accessibile da interviste e conferenze. Gli algoritmi AI, attraverso reti neurali, replicano timbro, intonazione e accenti, trasmettendo contenuti su Signal senza ulteriori verifiche.
I numeri di telefono degli obiettivi sono recuperati tramite fonti pubbliche o data leak. Gli impostori creano account paralleli per bypassare i controlli di identità. I deepfake audio derivano dagli stessi tool impiegati nella pornografia sintetica. Nel 2025, le frodi deepfake hanno generato 825 milioni di euro in perdite, di cui 376 milioni solo nel primo semestre (fonte: Fortune).
Modelli come Tacotron o WaveNet, basati su LSTM e apprendimento profondo, generano waveform vocali ad alta fedeltà (95% nei test MOS). Tecnici utilizzano spettrogrammi per rilevare anomalie, ma la detection rimane una sfida. Strumenti come Reality Defender analizzano i pattern per identificare cloni vocali, mentre watermarking audio emerge come tecnica per autenticare i messaggi. Tuttavia, l’adozione è lenta. L’attacco a Rubio dimostra la maturità tecnologica del deepfake audio: bastano risorse limitate, e anche hacker indipendenti possono condurre campagne avanzate.
Risposte delle autorità e indagini in corso
Il Dipartimento di Stato ha avviato un’indagine approfondita. Il cablogramma del 3 luglio ordina al personale di segnalare immediatamente qualsiasi attività sospetta. L’FBI collabora ma non commenta specificamente sull’incidente Rubio. Hany Farid contribuisce con analisi tecniche, mentre media come NPR e PBS rilanciano gli avvisi. I funzionari vengono formati sui segnali d’allarme: grammatica errata nei messaggi, richieste insolite (come liste di perdoni) o trasferimenti di denaro sono indicatori chiave.
Nel caso Wiles, i contatti hanno ignorato le richieste dopo verifica vocale. Il governo raccomanda l’uso di password condivise per confermare l’identità, evitando qualsiasi scambio sensibile via app. Le autorità stanno analizzando i metadati degli account Signal per risalire agli attori. La cooperazione internazionale è già attiva: ministri stranieri condividono informazioni che possono svelare pattern comuni. FBI Internet Crime Complaint Center (IC3) raccoglie le denunce, e i dati aggregati rivelano reti criminali globali. Il Pentagono, nel frattempo, ha emesso nuove linee guida che vietano l’uso di mobile app non classificate per comunicazioni delicate.
Implicazioni per la sicurezza nazionale e la cybersecurity
L’attacco a Rubio evidenzia rischi gravi per la sicurezza nazionale. I criminali possono accedere a intelligence sensibile, minando la fiducia nei canali diplomatici e offrendo vantaggi strategici agli Stati ostili. L’uso di Signal per comunicazioni ufficiali è considerato una violazione dei protocolli. Hany Farid critica duramente questa prassi, evidenziando quanto sia invitante per gli attori malevoli. Oltre al contesto governativo, le implicazioni si estendono a frodi civili: scam romantici, rapimenti virtuali, deepfake celebri come Brad Pitt in Francia, hanno causato perdite cumulative superiori a 825 milioni di euro.
Il governo è chiamato a investire in difese AI, regolamentare gli strumenti sintetici e proteggere la privacy dei contenuti audio. Servizi come Reality Defender diventano cruciali, così come l’introduzione di politiche federali contro l’uso improprio della tecnologia. L’AI non regolamentata favorisce la disinformazione e mette a rischio eventi democratici come le elezioni. Educazione, vigilanza e strumenti di detection diventano strumenti fondamentali per proteggere individui e istituzioni.
Casi simili e contesto più ampio sulle minacce deepfake
L’incidente Rubio segue quello di Susie Wiles a maggio 2025, quando un impostore ha hackerato il suo telefono personale, mimandone la voce per contattare senatori e governatori, chiedendo liste di perdoni e bonifici. Si parla ormai di “Signalgate”: numerosi funzionari hanno discusso piani militari riservati su gruppi Signal, includendo per errore giornalisti come Jeffrey Goldberg. Altri, come Pete Hegseth, hanno condiviso informazioni sensibili, come lo strike nello Yemen, su canali personali. Il contesto include anche la pornografia deepfake, frodi vocali familiari e hologram truffaldini nel settore crypto. Nel 2025, l’accessibilità dell’AI ha democratizzato queste minacce, mettendo hacker indipendenti allo stesso livello degli stati nazionali.
Dal punto di vista tecnico, i modelli generativi avversariali (GAN) usano mel-spettrogrammi, embedding vettoriali e LSTM per generare voci con fedeltà del 95%. I dataset audio crescono, così come la potenza computazionale per addestrarli. La detection AI utilizza CNN, spettro-analisi e transfer learning. Tuttavia, la proliferazione di modelli open-source rende le contromisure complesse da applicare su larga scala.