Exploit JobMonster WordPress, vulnerabilità Big Sleep AI e backdoor SesameOP via OpenAI

di Redazione
0 commenti

Il panorama della cybersecurity si evolve rapidamente con una nuova ondata di minacce ibride che combinano exploit tradizionali, vulnerabilità AI e abusi di API cloud. Nelle ultime settimane, analisti hanno documentato attacchi attivi contro WordPress, scoperte automatiche di vulnerabilità da parte dell’agente AI Big Sleep di Google, un bypass strutturale del KASLR su Android, e la comparsa di SesameOP, una backdoor che sfrutta le API Assistants di OpenAI come canale di comando e controllo. Questi eventi dimostrano come l’intelligenza artificiale sia ormai protagonista su entrambi i fronti della sicurezza, fungendo da strumento di difesa e vettore di minacce. Gli esperti raccomandano aggiornamenti immediati, monitoraggio dei log e configurazioni restrittive delle API per mitigare rischi sempre più complessi.

Exploit di auth bypass nel tema WordPress JobMonster

image 95
Exploit JobMonster WordPress, vulnerabilità Big Sleep AI e backdoor SesameOP via OpenAI 7

Gli attaccanti stanno sfruttando la vulnerabilità CVE-2025-5397 nel tema WordPress JobMonster, un bug critico di auth bypass che consente accessi non autenticati agli account amministrativi quando è abilitato il social login. La falla, localizzata nella funzione check_login(), deriva da una mancata verifica dell’identità utente, permettendo agli aggressori di falsificare richieste di autenticazione con un semplice username o indirizzo email dell’amministratore. Secondo Wordfence, sono stati bloccati centinaia di tentativi d’attacco nelle ultime 24 ore contro siti che eseguono versioni fino alla 4.8.1. Il tema ha corretto la falla nella versione 4.8.2, disponibile immediatamente. In attesa di patch, gli esperti suggeriscono di disattivare il social login, abilitare l’autenticazione a due fattori e verificare i log di accesso. L’exploit, facile da automatizzare, è già stato integrato in scanner distribuiti, confermando la vulnerabilità come uno dei target prioritari nei recenti attacchi ai CMS.

Scoperte AI Big Sleep in WebKit di Safari

Google conferma l’efficacia della sua AI di ricerca automatizzata Big Sleep (erede del progetto Naptime), capace di identificare cinque vulnerabilità zero-day nel motore WebKit di Safari. Le falle, catalogate come CVE-2025-43429 fino a CVE-2025-43434, includono buffer overflow, use-after-free e corruzioni di memoria che potevano causare crash e instabilità del browser. Apple ha risolto tutte le vulnerabilità nei recenti aggiornamenti di iOS 26.1, iPadOS 26.1, macOS Tahoe 26.1, tvOS, watchOS e visionOS, distribuendo patch per tutti i dispositivi da iPhone 11 in poi. Big Sleep, sviluppato congiuntamente da DeepMind e Project Zero, dimostra come l’AI possa essere impiegata per scansioni proattive di codice complesso, migliorando i tempi di scoperta e mitigazione delle vulnerabilità. Nessuna exploitation “in the wild” è stata finora segnalata, ma la scoperta conferma la necessità di integrare sistemi di analisi automatizzata nelle pipeline di sviluppo dei browser e dei motori di rendering.

Bypass KASLR nel kernel Android

Il team Project Zero di Google ha rivelato una tecnica che sconfigge la KASLR (Kernel Address Space Layout Randomization) su architetture Arm 64-bit, sfruttando un mapping diretto del kernel che rimane costante a ogni boot. La vulnerabilità, osservata nei dispositivi Pixel, consente di derivare indirizzi del kernel tramite offset statici, eliminando l’efficacia della randomizzazione. Il mapping lineare, accessibile all’indirizzo fisso 0xffffff8000010000, permette agli attaccanti di ottenere accesso in lettura e scrittura a regioni .data, semplificando la catena d’exploit in presenza di bug di scrittura arbitraria. Sebbene le sezioni .text non eseguibili limitino i rischi immediati, l’exploit riduce significativamente il livello di protezione previsto da KASLR. Google non ha rilevato attacchi reali, ma il bug rappresenta una debolezza architetturale nel kernel Android, ora oggetto di discussione nella community Linux. Le future patch mireranno a randomizzare il mapping lineare o limitarne la visibilità.

Backdoor SesameOP e abuso dell’API OpenAI

La Microsoft Threat Intelligence ha identificato SesameOP, una backdoor che sfrutta le API Assistants di OpenAI come canale C2 (Command and Control) per operazioni di spionaggio digitale. La catena d’infezione parte da un loader offuscato Netapi64.dll, che inietta un AppDomainManager .NET configurato per comunicare con l’endpoint api.openai.com senza utilizzare l’SDK ufficiale. La backdoor gestisce tre tipi di Assistant denominati SLEEP, Payload e Result, che simulano conversazioni AI ma trasportano comandi cifrati AES e RSA. I comandi vengono fetchati, decifrati ed eseguiti localmente tramite engine JScriptEvaluate, mentre i risultati vengono compressi e inviati indietro come nuovi messaggi nei thread API. SesameOP crea marker e mutex nel percorso C:\Windows\Temp\Netapi64.start, e mantiene log errori in Netapi64.Exception. Microsoft ha rilasciato regole di detection per Defender for Endpoint, suggerendo di monitorare connessioni verso api.openai.com e processi .NET con iniezione AppDomainManager. OpenAI, in collaborazione con Microsoft, ha disabilitato le chiavi API compromesse e gli account coinvolti. Gli esperti considerano SesameOP uno dei primi casi concreti di abuso di API LLM per comunicazioni C2 stealthy, un modello che potrebbe estendersi ad altre piattaforme AI commerciali.

Mitigazioni e indicatori di compromissione

I file e i marker relativi a SesameOP includono C:\Windows\Temp\Netapi64.start, log di errore con estensione .Netapi64 e mutex denominati OpenAI APIS. Le comunicazioni C2 transitano tramite HTTPS verso api.openai.com, con pattern di Assistants identificabili nei log (SLEEP, Payload, Result). Le organizzazioni sono invitate ad abilitare Tamper Protection in Microsoft Defender, bloccare accessi API non autorizzati e applicare regole firewall per limitare richieste verso domini AI esterni. Query di hunting in Microsoft XDR possono filtrare connessioni sospette verso endpoint OpenAI.

Implicazioni e tendenze emergenti

L’insieme di queste minacce evidenzia un nuovo paradigma nella cybersecurity: l’integrazione di AI sia come strumento di attacco che di difesa. Exploit come CVE-2025-5397 dimostrano la fragilità dei sistemi CMS, mentre AI avanzate come Big Sleep accelerano la scoperta delle vulnerabilità. L’uso malevolo delle API AI, come nel caso SesameOP, rappresenta una frontiera pericolosa, poiché consente comunicazioni furtive all’interno di infrastrutture cloud legittime. Nel frattempo, le falle strutturali come il bypass KASLR su Android confermano la necessità di ripensare la sicurezza a livello di architettura. Gli esperti prevedono un incremento delle minacce ibride, con malware che sfrutteranno progressivamente servizi AI, API pubbliche e modelli LLM per evadere rilevamenti e distribuire payload in modo decentralizzato.