RevengeHotels sfrutta AI per colpire hotel e calano i prezzi per sviluppare DeepFake

di Redazione
0 commenti

Kaspersky ha lanciato un nuovo allarme sulla rinascita di RevengeHotels, una campagna criminale che oggi integra malware generato con intelligenza artificiale, capace di colpire catene alberghiere e rubare i dati delle carte di pagamento degli ospiti. Kaspersky ha segnalato la riemersione di un vecchio nemico del settore alberghiero: RevengeHotels. Attivo da oltre dieci anni e già noto dal 2015 per campagne contro catene turistiche, il gruppo ha ora integrato codice sviluppato con intelligenza artificiale nei propri malware. Tra giugno e agosto, i ricercatori hanno rilevato nuove varianti di VenomRAT, un trojan che fornisce controllo remoto completo dei sistemi infetti. Il gruppo distribuisce il malware tramite email di phishing, spesso camuffate da richieste di prenotazione o candidature di lavoro. Quando gli allegati vengono aperti, il software malevolo si installa e permette agli attaccanti di sottrarre dati delle carte di pagamento e informazioni personali degli ospiti. Il Brasile è stato il principale bersaglio degli ultimi attacchi, ma segnali di compromissione sono emersi anche in altri paesi. Gli accessi ai sistemi infetti vengono poi venduti sul dark web, dove altri gruppi criminali li utilizzano per frodi finanziarie e ulteriori intrusioni.

L’aspetto più preoccupante è che l’uso di AI rende il malware più difficile da rilevare. Secondo Lisandro Ubiedo, ricercatore di Kaspersky, la generazione automatica di codice consente agli attaccanti di creare varianti inedite, capaci di eludere le firme tradizionali dei software di sicurezza. In pratica, mentre le email di phishing mantengono un aspetto simile a quelle viste in passato, i componenti interni del malware diventano sempre più sofisticati e resistenti alle difese. Per le strutture ricettive questo rappresenta un rischio elevato: anche gli hotel più noti possono trovarsi esposti, con conseguenze dirette sulla fiducia dei clienti. I viaggiatori rischiano la sottrazione dei dati delle carte, ma anche la compromissione delle informazioni personali legate ai soggiorni. L’evoluzione di campagne come quella di RevengeHotels dimostra come l’intelligenza artificiale non sia solo uno strumento per difendersi, ma anche una risorsa a disposizione dei criminali. Le aziende si trovano costrette a rafforzare i propri sistemi di difesa e a investire in formazione del personale, soprattutto per riconoscere e gestire tentativi di phishing sempre più convincenti. Allo stesso tempo, i clienti e i cittadini devono essere consapevoli che i dati personali e finanziari rappresentano un bersaglio costante e che la prevenzione passa anche da comportamenti prudenti e aggiornamento continuo delle pratiche di sicurezza.

Kaspersky: i programmi per creare deepfake costano 400 volte meno

Il Global Research and Analysis Team (GReAT) di Kaspersky ha scoperto una serie di annunci sul dark web che offrono servizi di deepfake video e audio in tempo reale. Secondo quanto riportato, i prezzi partono da 50 dollari per i video contraffatti e da 30 dollari per i messaggi vocali falsificati, con costi che aumentano in base alla complessità e alla durata del contenuto. Gli annunci sono stati individuati attraverso l’analisi di diverse piattaforme in lingua russa e inglese. In passato, Kaspersky aveva identificato la presenza di servizi per la creazione di deepfake sul dark web, con tariffe che variavano da 300 a 20.000 dollari al minuto. Rispetto a quelle offerte, però, i nuovi servizi consentono agli attori delle minacce di generare contenuti audio e video falsi in tempo reale a costi nettamente inferiori. Le inserzioni pubblicitarie offrono varie opzioni, tra cui lo scambio di volti in tempo reale durante videochiamate su piattaforme di videoconferenza o app di messaggistica, la sostituzione del volto per bypassare procedure di verifica dell’identità, e la manipolazione del feed della fotocamera su dispositivi target. Gli autori degli annunci affermano di poter fornire un software capace di sincronizzare le espressioni facciali di una persona in un video con il testo parlato, anche in lingue straniere, oltre a strumenti per la clonazione vocale e la modulazione di tono e timbro, con l’obiettivo di trasmettere emozioni specifiche. Tuttavia, è probabile che molti di questi annunci siano in realtà truffe, ideate per ingannare potenziali acquirenti.

“Non solo stiamo assistendo alla diffusione di annunci che offrono servizi di ‘deepfake-as-a-service’, ma anche a una chiara domanda di questi strumenti. I cybercriminali stanno sperimentando attivamente l’intelligenza artificiale e la stanno integrando nelle loro operazioni. Alcune piattaforme presentano funzionalità particolarmente avanzate: ad esempio, gli LLM (Large Language Model) malevoli sviluppati interamente da zero, indipendenti dai modelli pubblicamente disponibili e in grado di operare localmente. Sebbene queste tecnologie non rappresentino una minaccia informatica nuova, possono comunque potenziare in modo significativo le capacità degli aggressori. In questo scenario, i professionisti della cybersecurity devono impegnarsi per contrastare queste minacce evolute. Uno degli approcci più efficace è l’utilizzo dell’intelligenza artificiale per aumentare sia la produttività degli esperti della sicurezza, sia l’efficacia delle difese”, ha commentato Dmitry Galov, Responsabile del Kaspersky Global Research and Analysis Team per la Russia e la CSI.