C’è un punto, nelle discussioni sull’intelligenza artificiale, che continua a sfuggire perché è scomodo: l’AI non “crea” la minaccia, la rende replicabile. Non inventa dal nulla la truffa, la propaganda o l’ingegneria sociale; però abbassa i costi, accelera i cicli, standardizza i copioni e, soprattutto, rende più facile la gestione di volumi che prima richiedevano squadre più grandi, più tempo, più coordinamento. Il risultato è che una parte consistente del rischio non sta nella fantasia del singolo truffatore, ma nella capacità di mettere a terra workflow ripetibili, come in una piccola azienda: generazione contenuti, targeting, conversione, monetizzazione, reportistica. Il documento “Disrupting malicious uses of our models” (aggiornamento febbraio 2026) fotografa questa trasformazione con una serie di casi operativi che, letti in sequenza, raccontano una sola cosa: la minaccia diventa supply chain. La lingua non è più barriera, il tono “credibile” non è più un lusso, la personalizzazione non è più artigianato. E quando la produzione di testo, immagini e messaggi si automatizza, la domanda vera diventa un’altra: dove si decide l’impatto? Chi vince non è chi scrive meglio, ma chi distribuisce meglio.
Romance scam: la vecchia truffa che nel 2026 corre su binari più rapidi
La romance scam non è nuova. È una delle truffe più antiche perché sfrutta una leva che non invecchia: bisogno di riconoscimento, desiderio di relazione, paura di perdere un’occasione emotiva. La novità, oggi, è la catena di montaggio. Nel report ricorre una triade che funziona come una grammatica dell’inganno: ping, zing, sting. Il “ping” è il contatto a freddo, il “zing” è l’innesco emotivo, lo “sting” è l’estrazione di denaro. Il modello non è un dettaglio terminologico: è un modo per descrivere come le frodi si progettano ormai come funnel, con stadi e metriche, più che come improvvisazioni. Quello che cambia, con l’AI, è la possibilità di produrre il “ping” in serie, calibrandolo su interessi e contesti. Non solo messaggi “meno sgrammaticati”, ma messaggi più coerenti con una nicchia, con un lessico, con un micro-mondo. E qui la questione non è estetica: è operativa. Un contatto che sembra plausibile aumenta la probabilità che la vittima resti nella conversazione abbastanza a lungo da arrivare alla fase successiva. Nello “zing” il salto è ancora più netto, perché l’AI rende più semplice mantenere una conversazione lunga, con tono costante, senza cadute, senza contraddizioni evidenti. Questo non significa che l’AI sostituisca sempre l’operatore umano, ma che lo assiste: propone frasi, traduce, mantiene un registro, suggerisce escalation emotive. Il punto, però, è che la qualità del testo non è l’unica variabile. Lo stesso report insiste su un aspetto spesso ignorato nelle analisi mediatiche: la distribuzione decide il successo, molto più del “se il testo è scritto bene”.
Operation “Date Bait”: quando la truffa si comporta come un reparto vendite
Tra i casi più istruttivi c’è quello ribattezzato “Date Bait”, che mette insieme due elementi: la romance scam e la task scam, con una struttura che ricorda un programma di vendita a freddo, con ruoli e reparti. Qui l’AI non è solo “testo carino”: è collante di un’organizzazione. La dinamica descritta è chirurgica. In alto al funnel, l’operazione produce testi promozionali per una finta agenzia di incontri e accompagnamento di lusso, spinta con annunci a pagamento e parole chiave aspirazionali, selezionando uomini interessati a immaginari di status. Da lì, la conversione passa a un chatbot addestrato a impersonare una receptionist seduttiva, che “qualifica” l’utente e lo sposta su canali come Telegram con link di tracciamento e codici promo. Il passaggio off-platform è un punto fisso: uscire dall’ecosistema controllato dalle piattaforme pubbliche per entrare in uno spazio dove il controllo è minore e la pressione psicologica può essere più aggressiva. Poi arriva la fase ibrida: operatori umani che usano il modello in parallelo a automazioni via API. La conversazione si fa più esplicita, più intima, più vincolante. La vittima viene portata verso piattaforme fittizie dove compaiono profili di “ragazze disponibili” e feed di annunci generati artificialmente che simulano attività, premi, “missioni” completate da altri utenti. Qui c’è un passaggio cruciale: la truffa non chiede subito soldi, costruisce un contesto in cui pagare sembra la conseguenza naturale di un percorso, quasi un upgrade. Lo “sting” viene raccontato con una parola interna all’operazione: il “kill”, cioè l’estrazione finale, più grande, mascherata da deposito, verifica, compensazione, settlement. Quando la vittima raggiunge il massimo pagabile, viene bloccata e archiviata. Il valore di questo caso, oltre la cronaca, è il modello industriale: report giornalieri, calcolo dei target, traduzioni tra supervisori e operatori, reparti chiamati come in un call center. L’AI entra nella gestione, non solo nella scrittura.
Operation “False Witness”: la truffa che sfrutta la vergogna della vittima
Se “Date Bait” mostra la macchina, “False Witness” mostra l’aspetto più cinico: colpire chi è già stato colpito. È la recovery scam, la truffa del “ti recupero i soldi”, che si nutre di un sentimento preciso: urgenza di riparazione, vergogna, desiderio di chiudere il trauma rapidamente. Qui il gioco è l’impersonificazione di autorità e professionisti: finti studi legali, identità rubate o inventate, persino siti e messaggi che richiamano entità investigative. L’AI diventa un moltiplicatore soprattutto su due fronti. Il primo è la produzione di comunicazione “professionale”: tono da avvocato, lessico da studio, promesse calibrate per sembrare credibili. Il secondo è la traduzione, perché queste reti operano in più lingue e su più paesi. La traduzione non è un accessorio, è la condizione che permette di scalare. C’è anche un elemento che merita attenzione perché parla direttamente al cuore della fiducia digitale: l’uso del modello per generare materiali “di supporto” alla credibilità, come documenti, registrazioni, tessere, carte associative. Non serve che siano perfetti; basta che sembrino abbastanza “ufficiali” per bloccare il dubbio nei primi minuti. E quando la vittima è già emotivamente compromessa, quei minuti possono bastare.
Virtual targeting: quando la “consulenza” diventa esca di reclutamento
Il caso chiamato “Silver Lining Playbook” sposta l’attenzione dal denaro immediato a un’altra zona grigia: targeting di persone e ambienti professionali, con inviti che assomigliano a offerte di consulenza pagata, contatti su piattaforme social, richieste di call rapide su strumenti comuni. Qui la minaccia non è tanto il testo in sé, quanto la struttura psicologica dell’outreach: urgenza, lusinga, vaghezza sul lavoro reale, promessa di compensi e bonus, e soprattutto richiesta di spostamento rapido su canali esterni. È importante perché indica un trend: l’AI non viene usata solo per truffare, ma per costruire maschere credibili e operare prese di contatto che, viste singolarmente, possono sembrare normali email di recruiting o consulenza. La distinzione non la fa la grammatica: la fa la verificabilità. Dove non ci sono dettagli verificabili, job post reali, range plausibili, identità controllabili, e dove l’obiettivo è accelerare verso una call, il rischio aumenta.
Covert IO: la propaganda che non “sfonda”, ma inquina
Nella parte sulle operazioni di influenza, l’elemento più utile non è l’elenco dei temi, ma la diagnosi: molta influenza non serve a convincere, serve a creare rumore, a simulare consenso, a far sembrare “spontanea” una campagna. In questo, l’AI è perfetta: produce commenti, micro-articoli, traduzioni, risposte in serie. È l’infrastruttura ideale dell’astroturfing, cioè la costruzione artificiale di un’apparenza di grassroots. L’operazione chiamata “Trolling Stone” mostra un pattern classico: contenuti generati e pubblicati da pagine che si fingono testate, articoli tradotti e rilanciati, commenti generati da account diversi su piattaforme diverse, in modo coordinato. La cosa interessante è un dettaglio apparentemente minore ma rivelatore: la rimozione sistematica di certe punteggiature per mascherare la “firma” stilistica del modello. È un promemoria operativo: chi genera contenuti malevoli non vuole solo produrre, vuole anche ridurre i segnali di riconoscibilità.
“No Bell” e “Fish Food”: quando il contenuto conta meno del megafono
Nel report emergono due casi che, presi insieme, chiariscono un punto spesso ignorato nel dibattito pubblico: l’AI non garantisce engagement. In “Fish Food”, una stessa batch di contenuti può ottenere risultati opposti a seconda di chi la pubblica. Se il post lo fa un account enorme, vola. Se lo fa un account piccolo, muore. L’insegnamento è semplice e spietato: la leva vera è la distribuzione. L’AI è un acceleratore, ma l’impatto lo decide la rete di amplificazione, la reputazione dell’account, la capacità di insinuarsi in community già esistenti. Questa è una frattura concettuale importante. Se ci si concentra solo sul rilevare testi “scritti da AI”, si perde il bersaglio. Molte operazioni sono efficaci non perché il testo è perfetto, ma perché si innestano su infrastrutture di audience, pagine acquisite e ripulite, canali con numeri reali. In altre parole: l’AI è un componente, non il motore unico.
La scala cinese e il concetto di “cyber special operations”
La sezione più pesante, per implicazioni geopolitiche e di scala, riguarda attività attribuite a un attore legato alle forze dell’ordine cinesi, con riferimenti a quella che viene definita una strategia di “cyber special operations”. Qui la novità non è che esistano operazioni di influenza o harassment: è la descrizione di un apparato con molte persone, molte piattaforme, molte tattiche, e l’uso di modelli locali “open-weights” come parte dell’ecosistema operativo. Il report mette in evidenza un punto chiave: anche quando un modello rifiuta di assistere nella pianificazione, l’operazione può proseguire con altri strumenti. Questo sposta l’attenzione dal “blocco” come soluzione assoluta a una realtà più complessa: la mitigazione è un attrito, non un muro. Se un attore ha risorse, userà altri modelli, altri canali, altre tecniche.
La domanda quindi diventa: come si misura l’effetto della disruption?
C’è anche un elemento di metodo: il collegamento tra descrizioni interne e tracce OSINT. Hashtag lanciati, cluster di account creati in finestre temporali coerenti, meme e contenuti distribuiti su piattaforme diverse con engagement spesso basso. E proprio il basso engagement è un altro dato utile: molte operazioni possono essere estese, coordinate, costose, e comunque ottenere risultati modesti sul piano visibile. Questo non le rende irrilevanti. Le rende più difficili da valutare, perché il valore potrebbe essere altrove: targeting diretto, pressione psicologica, intimidazione, spostamento di conversazioni, saturazione informativa.
Perché “disruption” non significa “fine della minaccia”
Il termine disruption, letto senza cinismo, indica l’azione di interrompere reti e account che abusano di un servizio. Ma la lezione di fondo è che l’abuso non vive in un solo posto. L’attività è “multi-piattaforma” per definizione: social, annunci, siti, app di messaggistica, identità fittizie, automazioni. Per questo, la disruption è utile quando riesce a colpire il workflow, non solo il singolo contenuto. E qui si torna al nodo centrale: actor, behavior, content. Se ci si limita al contenuto, si rincorre un’ombra. Il contenuto cambia in fretta ed è replicabile. Se si guarda al comportamento, emergono segnali più robusti: passaggi off-platform, pattern di conversione, richiesta di pagamenti, reimpiego di identità, riuso di immagini, creazione massiva di account, finestre orarie coerenti con specifiche aree geografiche, traduzioni seriali, uso coordinato di batch. È in questi pattern che una difesa può trovare terreno. Un’altra implicazione, quasi politica, riguarda la responsabilità delle piattaforme che distribuiscono. Nel caso delle truffe, gli annunci a pagamento e i keyword targeting diventano un moltiplicatore. Nel caso dell’influenza, la presenza di account con audience reale è la differenza tra rumore e penetrazione. Questo significa che la governance non è solo “policy sull’AI”: è anche policy su ads, verifica identità, enforcement, trasparenza degli amministratori, controllo dei marketplace di audience.
Il paradosso dell’AI: più testi “credibili”, ma più facile smascherare l’operazione
Sembra controintuitivo, ma l’industrializzazione lascia tracce. Quando un’operazione produce tanto, tende a standardizzare. Quando standardizza, crea ripetizioni: formule, cadenze, strutture di messaggio, call to action, tempi. E quando si muove su più piattaforme, deve coordinare. Il coordinamento è un vincolo e spesso si vede, anche se a posteriori. L’AI aiuta a scrivere, ma non elimina la necessità di gestione: account, funnel, conversioni, pagamenti, screenshot, report. Il report suggerisce, indirettamente, una prospettiva utile: l’AI rende più accessibile l’attacco, ma rende anche più osservabile l’organizzazione, perché al crescere del volume cresce la superficie. Questo non è un invito all’ottimismo: è una chiamata a spostare la lente. Non ossessione per il singolo testo, ma lettura delle infrastrutture di distribuzione e delle routine operative.
Cosa resta, dopo aver letto tutto: la minaccia è un sistema, non un prompt
Alla fine, l’aggiornamento di febbraio 2026 realizzato da OpenAI che puoi scaricare qui è una fotografia di sistemi. La truffa come funnel, l’influenza come catena di pubblicazione e commento, il reclutamento come maschera di consulenza, l’harassment come combinazione di online e offline. In mezzo, i modelli: utili all’attore perché riducono tempi e costi, utili ai difensori perché, se osservati nel loro uso reale, rivelano pattern e dipendenze. La conclusione operativa, anche se non viene mai detta così, è che il contrasto efficace non nasce dall’idea di “vietare l’AI”, ma dal colpire i punti di attrito del processo. Dove si paga, dove si sposta la conversazione, dove si crea la credibilità fittizia, dove si compra distribuzione. È lì che la disruption smette di essere un comunicato e diventa una strategia.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









