Categorie
Inchieste

ChatGPT: i criminali informatici già la usano per sviluppare malware?

Tempo di lettura: 2 minuti. E’ possibile farsi sviluppare un malware dall’intelligenza artificiale? Basta trovare il modo per chiederglielo.

Tempo di lettura: 2 minuti.

Dal suo lancio in beta a novembre, il chatbot AI ChatGPT è stato utilizzato per un’ampia gamma di compiti, tra cui la scrittura di poesie, documenti tecnici, romanzi e saggi, la pianificazione di feste e l’apprendimento di nuovi argomenti. Ora possiamo aggiungere all’elenco lo sviluppo di malware e la ricerca di altri tipi di crimini informatici.

I ricercatori della società di sicurezza Check Point Research hanno riferito venerdì che, a poche settimane dall’avvio di ChatGPT, i partecipanti ai forum di criminalità informatica – alcuni con poca o nessuna esperienza di codifica – lo stavano usando per scrivere software ed e-mail che potevano essere utilizzati per spionaggio, ransomware, spam maligno e altre attività dannose.

“È ancora troppo presto per decidere se le funzionalità di ChatGPT diventeranno o meno il nuovo strumento preferito dai partecipanti al Dark Web”, hanno scritto i ricercatori della società. “Tuttavia, la comunità dei criminali informatici ha già mostrato un interesse significativo e si sta buttando su questa ultima tendenza a generare codice maligno”.

Il mese scorso, un partecipante al forum ha postato quello che sosteneva essere il primo script che aveva scritto e ha accreditato il chatbot AI di aver fornito una “bella mano [di aiuto] per finire lo script con una bella portata”.

Matrice Digitale nei suoi test, dopo la lettura delle notizie contenute nell’articolo, ha chiesto a ChatGPT di sviluppare un malware per conto suo e la risposta è stata negativa:

Come farsi aiutare quindi nello sviluppo di un codice malevolo? Semplicemente chiedendogli di perfezionare alcuni frammenti senza specificare che si tratti di un uso non propriamente etico e se l’intelligenza è davvero intelligente, allora dovrebbe accorgersene a priori.

Check Point però è riuscito a farsi consigliare un testo per una mail di phishing:

Nei due mesi precedenti si sono si sono cimentati nello sviluppo di un malware prodotto dall’intelligenza artificiale con un flusso di infezione completo. Senza scrivere una sola riga di codice, hanno generato un codice malevolo VBA e più chiedevano di farlo più migliorava secondo gli esperti:

Una macro che scarica automaticamente un file, eseguendolo. Questi sono i rischi dell’intelligenza artificiale: chi la usa può fare bene o può fare male, ma chi la sviluppa non può limitarla nella sua intelligenza.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro la pedopornografia online, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version