Categorie
Sicurezza Informatica

Dark Web: tutti pazzi per ChatGPT

Tempo di lettura: 3 minuti. L’analisi di Nord Vpn apre ad uno scenario difficile già denunciato in precedenza.

Tempo di lettura: 3 minuti.

La popolarità del chatbot ChatGPT di OpenAI, alimentato dall’Intelligenza Artificiale, ha attirato l’attenzione del mondo criminale che ha cercato immediatamente di sfruttarne le capacità per scopi nefasti. Sebbene questi sforzi siano iniziati lo scorso anno poco dopo il debutto di ChatGPT nel novembre 2022, hanno preso slancio ad inizio anno, come riportato da NordVPN, un provider di servizi VPN, che ha esaminato i post sui forum del dark web dal 13 gennaio al 13 febbraio.

Secondo la società, i thread sui forum relativi a ChatGPT sono aumentati del 145%, passando da 37 a 91 in un mese, poiché lo sfruttamento del bot è diventato l’argomento più caldo del dark web.

Sebbene la maggior parte dei post sull’argomento, che sono passati da 120 a gennaio a 870 a febbraio, fossero benigni per natura, erano presenti thread come “Come rompere ChatGPT”, “Abuso di ChatGPT per creare script di Dark Web Marketplace”, “Nuovo Trojan Binder ChatGPT”, “ChatGPT come strumento di phishing”, “Trojan ChatGPT”, “ChatGPT jailbreak 2.0”, “ChatGPT – progressione del malware”.

Come si può notare, le avanzate capacità di elaborazione del linguaggio naturale (NLP) di ChatGPT sono di grande interesse per i criminali per gli attacchi di phishing o le tecniche di “ingegneria sociale” che possono ingannare i dipendenti aziendali o i singoli individui a rivelare informazioni sfruttabili, scaricare malware e così via, generando testo e conversazioni che sembrano provenire da una persona reale.

Secondo le fonti del settore, le altre preoccupazioni di sicurezza informatica rilevanti includono:

L’accesso alle informazioni aziendali memorizzate dal chatbot potrebbe condurre al furto di identità, frodi e altre attività malintenzionate. La distribuzione di malware e virus, che potrebbe rubare dati. Il superamento dei sistemi di autenticazione e autorizzazione.

Mentre nota gli aspetti positivi di ChatGPT, l’esperto di sicurezza informatica di NordVPN, Marijus Briedis, ha anche evidenziato l’altro lato della medaglia.

“Per i cybercriminali, tuttavia, la rivoluzionaria IA può essere il pezzo mancante del puzzle per una serie di truffe”, ha detto. “L’ingegneria sociale, dove si incoraggia un obiettivo a cliccare su un file fraudolento o a scaricare un programma maligno attraverso e-mail, messaggi di testo o chat online, richiede molto tempo per gli hacker. Tuttavia, una volta che un bot è stato sfruttato, questi compiti possono essere completamente esternalizzati, creando una catena di produzione di frodi.

“L’uso dell’apprendimento automatico di ChatGPT significa anche che i tentativi di truffa come le e-mail di phishing, spesso identificabili attraverso gli errori di ortografia, possono essere migliorati per essere più realistici e persuasivi.”

Secondo Marijus Briedis di NordVPN, l’AI avanzata di ChatGPT può essere utilizzata anche per generare script per creare marketplace illegali sul Dark Web. Inoltre, potrebbe essere utilizzata per creare Trojan Binder, che sono strumenti utilizzati dai criminali informatici per unire più file in un unico eseguibile. Questo potrebbe consentire di nascondere il malware all’interno di un’apparentemente innocuo programma e quindi distribuirlo con successo.

L’analisi di NordVPN ha anche mostrato che il numero di thread sul Dark Web che riguardano ChatGPT è aumentato del 145% in un solo mese. Sebbene la maggior parte di questi thread siano stati benigni, molti di essi suggerivano l’uso di ChatGPT per scopi illeciti, come la creazione di malware o la diffusione di informazioni fraudolente.

Tuttavia, è importante notare che ChatGPT non è il primo chatbot ad attirare l’attenzione dei criminali informatici. I chatbot basati su regole, come quelli utilizzati in passato per i servizi clienti, sono stati da tempo utilizzati per generare messaggi di spam e tentativi di phishing. Ciò significa che è importante che le aziende che utilizzano ChatGPT o altri chatbot avanzati adottino misure di sicurezza adeguate per proteggere i propri sistemi e le informazioni dei clienti.

In conclusione, la popolarità di ChatGPT è diventata anche un obiettivo per i criminali informatici che cercano di sfruttarne le capacità per scopi illeciti. L’uso di ChatGPT per scopi criminali potrebbe portare a phishing, distribuzione di malware, furto di identità e altri attacchi informatici dannosi. Pertanto, le aziende e gli utenti devono essere consapevoli di questi rischi e adottare le misure di sicurezza appropriate per proteggere i propri sistemi e le informazioni.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version