Categorie
Sicurezza Informatica

Esiste un malware alimentato dall’intelligenza artificiale?

Tempo di lettura: 3 minuti. L’invio di attacchi malevoli da parte dell’IA può evocare immagini di tecnologia futuristica da film, ma potrebbe non essere troppo lontana dalla realtà

Tempo di lettura: 3 minuti.

L’intelligenza artificiale sta lasciando il segno nel mondo della sicurezza informatica. Per i difensori, l’IA può aiutare i team di sicurezza a individuare e ridurre le minacce più rapidamente. Per gli aggressori, l’IA può essere utilizzata come arma per una serie di attacchi, come deepfakes, avvelenamento dei dati e reverse-engineering. Ultimamente, però, è il malware alimentato dall’intelligenza artificiale a finire sotto i riflettori e a essere messo in discussione.

Attacchi abilitati dall’intelligenza artificiale e malware alimentato dall’intelligenza artificiale

Gli attacchi abilitati dall’intelligenza artificiale si verificano quando un attore delle minacce utilizza l’intelligenza artificiale per contribuire a un attacco. La tecnologia Deepfake, un tipo di intelligenza artificiale utilizzata per creare immagini, audio e video falsi ma convincenti, può essere utilizzata, ad esempio, durante gli attacchi di social engineering. In queste situazioni, l’intelligenza artificiale è uno strumento per condurre un attacco, non per crearlo. Il malware alimentato dall’intelligenza artificiale, invece, viene addestrato tramite l’apprendimento automatico per essere più scaltro, più veloce e più efficace del malware tradizionale. A differenza del malware che prende di mira un gran numero di persone con l’intenzione di attaccarne con successo una piccola percentuale, il malware dotato di intelligenza artificiale è addestrato a pensare da solo, ad aggiornare le proprie azioni in base allo scenario e a colpire in modo specifico le vittime e i loro sistemi. I ricercatori IBM hanno presentato il proof-of-concept del malware AI-powered DeepLocker alla Black Hat Conference 2018 per dimostrare questo nuovo tipo di minaccia. Il ransomware WannaCry era nascosto in un’applicazione di videoconferenza e rimaneva inattivo finché non veniva identificato un volto specifico utilizzando un software di riconoscimento facciale AI.

Esiste un malware alimentato dall’intelligenza artificiale in natura?

La risposta rapida è no. Le minacce informatiche potenziate dall’intelligenza artificiale non sono ancora state avvistate in natura, ma non bisogna escludere questa possibilità. “Nessuno è stato colpito o è riuscito a scoprire un’offesa veramente dotata di intelligenza artificiale”, ha dichiarato Justin Fier, vicepresidente della divisione Tactical Risk and Response di Darktrace. “Non significa che non ci sia, ma semplicemente non l’abbiamo ancora visto”. Pieter Arntz, analista di malware presso Malwarebytes, concorda sul fatto che l’AI-malware deve ancora essere visto. “Per quanto ne so, finora l’intelligenza artificiale viene utilizzata su scala ridotta solo nei circoli di malware per migliorare l’efficacia delle campagne di malware esistenti”, ha dichiarato in un’e-mail a SearchSecurity. Ha previsto che i criminali informatici continueranno a utilizzare l’IA per migliorare le operazioni, come lo spam mirato, i deepfake e le truffe di social engineering, piuttosto che affidarsi a malware alimentati dall’IA.

Potenziali casi d’uso del malware potenziato dall’intelligenza artificiale

Tuttavia, il fatto che il malware alimentato dall’intelligenza artificiale non sia ancora stato avvistato in natura non significa che non lo sarà in futuro, soprattutto quando le difese delle aziende si rafforzeranno. “La maggior parte dei criminali non spenderà tempo per inventare un nuovo sistema o per migliorarne uno esistente quando questo funziona già così bene per loro”, ha detto Arntz. “A meno che non riescano a mettere le mani su qualcosa che funzioni meglio per loro, magari con una piccola modifica, si atterranno a ciò che funziona”. Tuttavia, man mano che le difese si rafforzano, i criminali informatici potrebbero essere costretti a fare un passo avanti e a costruire nuovi attacchi. Prendiamo ad esempio il ransomware. Il ransomware ha dominato il panorama delle minacce per anni e ha avuto un tale successo che gli aggressori non hanno avuto bisogno di creare o utilizzare malware potenziato dall’intelligenza artificiale. Tuttavia, i difensori stanno lentamente recuperando terreno e rafforzando la loro sicurezza, come dimostra il recente calo degli attacchi ransomware. Sebbene Fier abbia affermato che molte ragioni contribuiscono al declino, “si deve presumere che stiamo migliorando nel fare il nostro lavoro”. Ma questo significa che gli aggressori potrebbero essere spinti a investire in malware dotati di intelligenza artificiale, se non l’hanno già fatto, ha aggiunto. Oltre a rafforzare potenzialmente gli attacchi ransomware, Arntz ha descritto i seguenti tre casi di utilizzo del malware dotato di intelligenza artificiale:

  • worm informatici in grado di adattarsi al sistema successivo che cercano di infettare;
  • malware polimorfo che modifica il proprio codice per evitare il rilevamento; e
  • malware che adattano gli attacchi di social engineering sulla base dei dati raccolti, come ad esempio i dati raccolti dai siti di social media.
  • Tuttavia, ha osservato che devono essere compiuti alcuni passi prima che sia possibile per gli aggressori implementare praticamente il malware alimentato dall’intelligenza artificiale. Per ora, ha detto Arntz, “sembra che il settore della sicurezza informatica stia facendo un uso migliore dell’IA rispetto ai suoi avversari malintenzionati”.

Come prepararsi agli attacchi che coinvolgono l’IA

Il 96% degli intervistati in un sondaggio del MIT Technology Review Insights del 2021, in associazione con Darktrace, ha dichiarato di aver iniziato a prepararsi agli attacchi dell’IA. Jon France, CISO di (ISC)2, ha dichiarato che il modo migliore per prepararsi agli attacchi basati sull’IA, così come alla potenziale minaccia futura di malware alimentato dall’IA, è quello di mettere in pratica le migliori pratiche di igiene della cybersecurity. Inoltre, i difensori dovrebbero utilizzare l’IA a loro vantaggio.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro la pedopornografia online, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version