Il 2025 segna una svolta critica per l’ecosistema AI, con la comparsa di LLM maliziosi che potenziano hacker inesperti e un leak sull’app Android di ChatGPT che conferma l’arrivo di pubblicità personalizzate. Nel primo periodo emergono tre elementi centrali: gli esperimenti di Palo Alto Networks Unit42 che mostrano come WormGPT 4 e KawaiiGPT generino codice ransomware, campagne di phishing spear e script per movimento laterale; la capacità di questi modelli di abbassare drasticamente la skill barrier per attori malevoli; e il leak della beta ChatGPT 1.2025.329, che include riferimenti a bazaar content, search ads carousel e sistemi di targeting basati su dati utente. L’annuncio non ufficiale alimenta discussioni su X, con preoccupazioni sulla trasformazione di ChatGPT in piattaforma ibrida tra assistente AI e motore pubblicitario. In parallelo, il mercato AI assiste a un incremento dei rischi cyber, poiché LLM uncensored offrono capacità prima riservate a gruppi criminali tecnicamente avanzati. Questi due filoni — cybercrime automatizzato e monetizzazione AI — convergono nella ridefinizione delle dinamiche di sicurezza ed etica nell’AI generativa.
Cosa leggere
WormGPT 4 e KawaiiGPT come strumenti di attacco
Palo Alto Networks Unit42 evidenzia come gli LLM maliziosi rappresentino un cambiamento radicale nel panorama delle minacce. WormGPT 4, una variante uncensored del 2025, diventa accessibile tramite un abbonamento da 45,85 euro al mese o 201,74 euro lifetime, rendendo strumenti avanzati alla portata di attori con competenze minime. Parallelamente, KawaiiGPT 2.5, gratuito e community-driven, si installa in pochi minuti su Linux e ottiene rapida adozione tramite canali Telegram. Questi LLM generano output naturali, privi degli errori sintattici e grammaticali tipici delle campagne scam tradizionali. Unit42 dimostra che hacker inesperti possono creare operazioni sofisticate, con attacchi di social engineering, ransomware e movimento laterale completamente automatizzati. Community Telegram con centinaia di membri condividono trucchi per sfruttare WormGPT 4, mentre KawaiiGPT cresce grazie agli input continui degli utenti. Questa democratizzazione del cybercrime riduce tempi, complessità e costi operativi per attori malevoli, spostando l’equilibrio da difesa a offesa.
Capacità ransomware di WormGPT 4
Le capacità di WormGPT 4 preoccupano particolarmente i ricercatori. Lo LLM genera script PowerShell che crittografano file PDF e documenti sensibili tramite AES-256, includendo configurazioni personalizzabili per percorsi, estensioni e note di riscatto. Il codice aggiunge funzioni di esfiltrazione via Tor, rendendo difficili le attività di tracciamento. La ransom note imposta una deadline di 72 ore e prevede un raddoppio del pagamento alla scadenza.

Unit42 conferma che lo script esegue correttamente le operazioni in ambienti controllati senza modifiche rilevanti. WormGPT genera inoltre phishing per business email compromise con un linguaggio professionale, credibile e manipolativo. Il modello permette la creazione di varianti multiple per eludere antivirus e segnature statiche. La capacità di generare ransomware funzionante trasforma attori inesperti in threat actors capaci, incrementa i rischi di data breach e accelera la progressione degli attacchi da ideazione a esecuzione.
Funzionalità phishing e movimento laterale di KawaiiGPT
KawaiiGPT si distingue per la sua efficacia nelle operazioni multi-stage. Il modello crea spear-phishing credibili con domain spoofing, link per credential harvesting e email adattate a contesti specifici. Produce script Python basati su paramiko, che permettono connessioni SSH remote, esecuzione comandi con exec_command, enumerazione filesystem tramite os.walk, raccolta file sensibili ed esfiltrazione tramite SMTP.

KawaiiGPT genera ransom notes personalizzate e supporta privilege escalation, anche senza routine complete di crittografia. Gli hacker usano il modello per automatizzare movimenti laterali in ambienti Linux e per orchestrare attacchi multi-fase dopo campagne phishing. La facilità d’uso e la natura gratuita del tool spingono una broad adoption, amplificando rischi di social engineering e compromissioni profonde.
Rischi cybersecurity dagli LLM
L’emergere di LLM non filtrati aumenta significativamente il threat landscape. Attori privi di formazione avanzata riescono a lanciare attacchi ransomware, campagne phishing mirate, movimenti laterali e esfiltrazioni anonime mediante Tor. Phishing generati da AI ingannano utenti esperti, mentre i business email compromise generano danni finanziari immediati. Gli LLM uncensored producono varianti di codice che superano i sistemi di detection tradizionali, aumentando l’indice di compromissione globale. Organizzazioni di ogni settore affrontano minacce evolute, con file sensibili crittografati, movimenti laterali automatizzati e furti di dati sistematici. La democratizzazione del cybercrime amplifica la frequenza e la severità degli incidenti. Unit42 evidenzia che questi tool circolano attivamente nel mondo reale, rendendo urgente una revisione delle strategie difensive.
Leak conferma ads su ChatGPT
Parallelamente alla crescita delle minacce cyber, un leak della beta Android ChatGPT 1.2025.329 rivela l’arrivo delle ads nella piattaforma. Il codice include riferimenti diretti a funzioni come bazaar content, SearchAd, SearchAdsCarousel, com.openai.feature.ads.data e moduli dedicati al targeting degli utenti. OpenAI prepara un rollout iniziale delle ads, destinato agli utenti free, mentre gli utenti paid manterranno un’esperienza ad-free.
Gli ads verranno integrati soprattutto nella search, con personalizzazione basata sui dati utente salvo opt-out manuale. Il leak pubblicato su X da Tibor Blaho ottiene centinaia di migliaia di visualizzazioni, scatenando dibattiti su privacy, mission aziendale e cambio di direzione verso un modello ibrido tra AI e piattaforma pubblicitaria. Le discussioni ironizzano sull’idea di una “Ad Generating Intelligence”, mentre molti utenti esprimono preoccupazione sulla futura esperienza d’uso.
Dettagli dalla beta Android e reazioni su X
L’app beta include riferimenti tecnici come AdsDebugInfo, ApiAdTargetType, EncodedAdData, oltre a wrapper per contenuti bazaar. Le screenshot ottengono oltre 635.000 visualizzazioni, con thread che mescolano ironia, meme e critiche sul cambiamento della missione OpenAI. Alcuni utenti associano la svolta pubblicitaria all’ingresso di ex-Meta in posizioni dirigenziali, ora oltre 630 su 3.000 dipendenti. Le reazioni variano tra chi accetta la monetizzazione come inevitabile e chi teme un passaggio da AI orientata alla sicurezza a piattaforma orientata al profitto. L’impatto principale riguarderà gli utenti free, che vivranno un’esperienza meno fluida, mentre i paganti resteranno protetti. La discussione alimenta interrogativi sulla privacy, sull’uso dei dati e sulla trasformazione dell’AI generativa in infrastruttura commerciale.
Reazioni utenti e implicazioni per il business
Le reazioni degli utenti su X mostrano un panorama polarizzato: humour, critiche e preoccupazioni per la privacy convivono nello stesso thread. Molti vedono le ads come un compromesso per sostenere lo sviluppo AI; altri temono una deviazione dai principi originari della ricerca sull’allineamento. Le ads basate su memory utente sollevano timori etici. OpenAI mira a bilanciare crescita, retention e sostenibilità economica, ma rischia backlash da parte della community tech. In parallelo, gli LLM maliziosi spingono le aziende ad aumentare gli investimenti in threat intelligence, monitoraggio avanzato e formazione anti-phishing, dimostrando come AI e sicurezza siano intrecciate in un quadro complesso.