Browser AI agentici sotto attacco: il caso Scamlexity

di Redazione
0 commenti

I browser AI agentici, presentati come strumenti in grado di automatizzare compiti quotidiani e semplificare la navigazione online, hanno dimostrato vulnerabilità gravi di fronte a comuni truffe digitali. Una ricerca dedicata, focalizzata su Perplexity Comet, l’unico browser AI pubblico capace di navigare autonomamente, ha messo in evidenza come questi sistemi possano cadere vittima di siti di phishing, negozi fake e persino iniezioni di prompt malevoli. Il fenomeno, definito dagli studiosi come l’inizio dell’era “Scamlexity”, mostra come scam tradizionali, combinati con i nuovi vettori legati all’intelligenza artificiale, amplifichino i rischi fino a compromettere la sicurezza di milioni di utenti.

Metodologia dei test

image 96
Browser AI agentici sotto attacco: il caso Scamlexity 10

I ricercatori hanno analizzato Comet in tre scenari reali: acquisti su un finto e-commerce Walmart, gestione di email di phishing e interazione con un captcha manipolato tramite PromptFix. Nei test, il browser AI ha mostrato comportamenti incoerenti: in alcuni casi ha rifiutato di proseguire, ma in molti altri ha completato le azioni pericolose senza alcuna verifica, arrivando persino ad autofillare dati sensibili come indirizzi e carte di credito.

L’esperimento del falso Walmart

image 97
Browser AI agentici sotto attacco: il caso Scamlexity 11

Il primo test ha dimostrato quanto sia semplice ingannare un browser AI. In appena dieci secondi è stato creato un sito fake che riproduceva l’interfaccia di Walmart. Alla richiesta di acquistare un Apple Watch, Comet ha navigato, aggiunto il prodotto al carrello e completato il checkout, inserendo automaticamente i dati dell’utente. In alcuni run ha mostrato esitazione, ma nella maggior parte dei casi ha consegnato informazioni sensibili al sito fraudolento, evidenziando un’assenza di scetticismo contestuale.

Phishing via email: fiducia cieca nell’AI

Nel secondo scenario, un’email fasulla inviata da un account ProtonMail fingeva provenire da Wells Fargo. Comet l’ha interpretata come un’attività da svolgere, cliccando il link e aprendo un sito di phishing attivo.

image 98
Browser AI agentici sotto attacco: il caso Scamlexity 12

In mancanza di analisi sul mittente o sulla legittimità del dominio, l’AI ha richiesto le credenziali all’utente, di fatto validando la truffa. L’incoerenza emersa nei test – a volte il browser segnalava il rischio, altre no – ha rivelato una sicurezza casuale, insufficiente a proteggere gli utenti.

PromptFix: la nuova frontiera delle truffe AI-specifiche

image 99
Browser AI agentici sotto attacco: il caso Scamlexity 13

Il terzo esperimento ha adattato il noto attacco ClickFix in PromptFix, un’iniezione che sfrutta la naturale tendenza dell’AI ad eseguire comandi nascosti. Presentato come un captcha legato a presunti risultati medici, il test ha indotto Comet a cliccare su un bottone che avviava un download drive-by. Anche in questo caso, il browser non ha mostrato alcuna resistenza, eseguendo ciecamente le istruzioni incluse nei prompt malevoli.

Implicazioni per utenti e sviluppatori

Questi test dimostrano che gli utenti che delegano completamente all’AI compiti delicati come acquisti, gestione email o autenticazioni rischiano seriamente furti di dati, perdite economiche e compromissione della privacy. La ricerca mette in evidenza come i browser agentici ereditino le vulnerabilità umane – come la fiducia cieca – ma le amplifichino attraverso l’automazione. Gli sviluppatori sono quindi chiamati a implementare guardrail di sicurezza, verifiche multiple e filtri anti-phishing avanzati, mentre gli utenti devono evitare di abbandonare del tutto il controllo umano nei processi decisionali.

Conclusioni: l’era della Scamlexity

La nascita di Scamlexity segna un punto di svolta: le truffe digitali diventano più efficaci sfruttando l’interazione diretta con l’AI, che agisce senza lo scetticismo e il contesto tipici del giudizio umano. Senza misure correttive, ogni attacco a un browser AI agentico rischia di colpire in simultanea milioni di utenti. La lezione è chiara: comodità e automazione non possono prevalere sulla sicurezza, e la sfida per i prossimi anni sarà sviluppare agenti AI capaci non solo di eseguire istruzioni, ma anche di riconoscere inganni e minacce.