Categorie
Tech

La vulnerabilità dei rilevatori di malware

Tempo di lettura: 3 minuti.

Gli aggressori informatici stanno escogitando tecniche sempre più sofisticate per rubare le informazioni sensibili degli utenti, criptare documenti per ricevere un riscatto o danneggiare i sistemi informatici. Di conseguenza, gli informatici hanno cercato di creare tecniche più efficaci per rilevare e prevenire gli attacchi informatici. Molti dei rilevatori di malware sviluppati negli ultimi anni si basano su algoritmi di apprendimento automatico addestrati a riconoscere automaticamente i modelli o le firme associate a specifici attacchi informatici. Sebbene alcuni di questi algoritmi abbiano ottenuto risultati notevoli, sono in genere suscettibili di attacchi avversari. Gli attacchi avversari si verificano quando un utente malintenzionato perturba o modifica i dati in modo sottile, per far sì che vengano classificati in modo errato da un algoritmo di apprendimento automatico. Come risultato di queste sottili perturbazioni, l’algoritmo potrebbe classificare il malware come se fosse un software sicuro e regolare. I ricercatori del College of Engineering di Pune, in India, hanno recentemente condotto uno studio sulla vulnerabilità di un rilevatore di malware basato sul deep learning agli attacchi avversari. Il loro lavoro, pre-pubblicato su arXiv, si concentra in particolare su un rilevatore basato sui trasformatori, una classe di modelli di deep learning in grado di pesare in modo diverso le diverse parti dei dati in ingresso.

“Molti modelli basati sull’apprendimento automatico sono stati proposti per rilevare in modo efficiente un’ampia varietà di malware”, scrivono Yash Jakhotiya, Heramb Patil e Jugal Rawlani nel loro articolo. “Molti di questi modelli si sono rivelati suscettibili agli attacchi avversari, che operano generando input intenzionalmente progettati per costringere questi modelli a sbagliare la classificazione. Il nostro lavoro mira a esplorare le vulnerabilità degli attuali rilevatori di malware allo stato dell’arte agli attacchi avversari”. Per valutare la vulnerabilità dei rilevatori di malware basati sul deep learning agli attacchi avversari, Jakhotiya, Patil e Rawlani hanno sviluppato un proprio sistema di rilevamento di malware. Questo sistema ha tre componenti chiave: un modulo di assemblaggio, un modulo di caratteristiche statiche e un modulo di rete neurale. Il modulo di assemblaggio è responsabile del calcolo delle caratteristiche del linguaggio assembly che vengono successivamente utilizzate per classificare i dati. Utilizzando lo stesso input fornito al modulo di assemblaggio, il modulo delle caratteristiche statiche produce due serie di vettori che verranno utilizzati per classificare i dati. Il modello di rete neurale utilizza le caratteristiche e i vettori prodotti dai due modelli per classificare file e software. In definitiva, il suo obiettivo è determinare se i file e i software che analizza sono benigni o dannosi. I ricercatori hanno testato il loro rilevatore di malware basato su trasformatori in una serie di prove, in cui hanno valutato come le sue prestazioni fossero influenzate da attacchi avversari. Hanno scoperto che era incline a sbagliare la classificazione dei dati quasi una volta su quattro. “Addestriamo un rilevatore di malware basato su Transformers, eseguiamo attacchi avversari con un tasso di classificazione errata del 23,9% e proponiamo difese che riducono questo tasso di classificazione errata alla metà”, scrivono Jakhotiya, Patil e Rawlani nel loro articolo. I recenti risultati raccolti da questo team di ricercatori evidenziano la vulnerabilità degli attuali rilevatori di malware basati su trasformatori agli attacchi avversari. Sulla base delle loro osservazioni, Jakhotiya, Patil e Rawlani propongono quindi una serie di strategie di difesa che potrebbero contribuire ad aumentare la resilienza dei trasformatori addestrati a rilevare malware contro gli attacchi avversari. Queste strategie includono l’addestramento degli algoritmi su campioni avversari, il mascheramento del gradiente del modello, la riduzione del numero di caratteristiche esaminate dagli algoritmi e il blocco della cosiddetta trasferibilità delle architetture neurali. In futuro, queste strategie e i risultati complessivi pubblicati nel recente lavoro potrebbero essere alla base dello sviluppo di rilevatori di malware più efficaci e affidabili basati sul deep learning.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version