Categorie
Sicurezza Informatica

FraudGPT, le alternative malevole a ChatGPT attirano i criminali

Tempo di lettura: 2 minuti. Un bot AI mirato esclusivamente a scopi offensivi, come la creazione di e-mail di spear phishing, di strumenti di cracking e carding

Tempo di lettura: 2 minuti.

Dopo WormGPT un altro chatbot sarebbe emerso sul Dark Web. Chiamato FraudGPT il chatbot in abbonamento e basato sull’intelligenza artificiale potrebbe svolgere varie funzioni per lanciare con successo campagne di phishing e truffe, spear phishing e creare strumenti di cracking e carding.

Le caratteristiche

Secondo un rapporto dei ricercatori sulle minacce di Netenrich, FraudGPT sarebbe apparso sui canali Telegram il 22 luglio 2023.

Fonte Netenrich

Il bot di intelligenza artificiale inoltre, consentirebbe anche di selezionare i migliori servizi o siti da prendere di mira per frodare gli utenti. Ecco alcune caratteristiche principali:

  • Assistenza hacking
  • Creazione di malware non rilevabili, pagine di phishing e strumenti di hacking
  • Trovare siti/pagine/gruppi target, vulnerabilità e leaks

FraudGPT sarebbe in vendita sui mercati del Dark Web e Telegram a un prezzo di $200 al mese o di $1.700 in abbonamento annuale, con un servizio di assistenza disponibile 24 ore su 24, 7 giorni su 7. Avrebbe inoltre 3.000 vendite/recensioni confermate secondo il vendor.

Considerazioni

I modelli di IA rigenerativa hanno cambiato radicalmente lo scenario del cyber crime. I criminali informatici infatti possono ora con l’intelligenza artificiale garantire un margine di successo più elevato per le loro truffe di phishing. L’emergere di chatbot dannosi come FraudGPT e WormGPT non è da sottovalutare ed rappresenta un segnale preoccupante.

Simile a FraudGPT, WormGPT è stato lanciato il 13 luglio 2023. Questo tipo di alternative dannose a ChatGPT continua ad attrarre criminali e persone meno esperte di tecnologia per prendere di mira le vittime a scopo di lucro.”, commenta l’esperto Rakesh Krishnan e conclude “Col passare del tempo, i criminali troveranno ulteriori modi per migliorare le proprie capacità criminali utilizzando gli strumenti che inventiamo. Mentre le organizzazioni possono creare ChatGPT (e altri strumenti) con salvaguardie etiche, non è un’impresa difficile reimplementare la stessa tecnologia senza tali salvaguardie.”.

Di Salvatore Lombardo

Ingegnere elettronico e socio Clusit, da qualche tempo, sposando il principio dell’educazione consapevole, scrive online per diversi magazine sull’Information Security. È inoltre autore del libro “La Gestione della Cyber Security nella Pubblica Amministrazione”. "Education improves Awareness" è il suo motto.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version