Categorie
Economia

ChatGPT potenzia una botnet di criptovaluta con tweet generati da IA

Tempo di lettura: 2 minuti. ChatGPT viene utilizzato per alimentare una botnet di criptovaluta, Fox8, su X, evidenziando potenziali abusi della tecnologia IA nei social media.

Tempo di lettura: 2 minuti.

ChatGPT, noto per rivoluzionare la ricerca sul web e semplificare le attività d’ufficio, ha trovato un nuovo impiego come promotori di criptovalute sui social media.

Botnet Fox8 alimentata da ChatGPT

Ricercatori dell’Indiana University Bloomington hanno scoperto una botnet, denominata Fox8, operante su X (precedentemente conosciuto come Twitter) alimentata da ChatGPT. Questa botnet, collegata a siti web di criptovaluta con variazioni del nome “Fox8”, comprendeva 1.140 account. Molti di questi account sembravano utilizzare ChatGPT per creare post sui social media e rispondere ai post degli altri. Il contenuto autogenerato aveva lo scopo di attirare gli utenti a cliccare sui link che portavano ai siti di promozione delle criptovalute.

Rilevamento e analisi della botnet

La botnet Fox8 è stata individuata dai ricercatori cercando la frase distintiva “Come modello di linguaggio IA…”, una risposta che ChatGPT usa a volte per argomenti sensibili. Successivamente, gli account sono stati analizzati manualmente per identificare quelli operati da bot. Filippo Menczer, professore all’Indiana University Bloomington, ha commentato che l’unico motivo per cui hanno notato questa botnet è stata la sua mancanza di accuratezza.

Implicazioni e rischi

Nonostante l’uso non sofisticato di ChatGPT, la botnet ha pubblicato molti messaggi convincenti che promuovevano siti di criptovaluta. La facilità con cui l’intelligenza artificiale di OpenAI è stata apparentemente utilizzata per la truffa suggerisce che chatbot avanzati potrebbero gestire altre botnet ancora non rilevate. OpenAI non ha risposto a una richiesta di commento sulla botnet al momento della pubblicazione. La loro politica d’uso proibisce l’utilizzo dei loro modelli IA per truffe o disinformazione.

Tecnologia e disinformazione

I ricercatori hanno da tempo espresso preoccupazione sul rischio di disinformazione legato alla tecnologia dietro ChatGPT. OpenAI aveva persino ritardato il rilascio di un predecessore del sistema a causa di tali timori. Tuttavia, ad oggi, ci sono pochi esempi concreti di modelli di linguaggio di grandi dimensioni utilizzati in modo improprio su larga scala.

Con l’ascesa delle tecnologie IA come ChatGPT, le potenziali minacce e abusi nell’ambito della disinformazione e delle truffe online diventano sempre più evidenti. La scoperta della botnet Fox8 sottolinea la necessità di una maggiore vigilanza e consapevolezza in questo settore in rapida evoluzione.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version