Categorie
Sicurezza Informatica

Malware e apprendimento automatico: un’accoppiata pericolosa

Tempo di lettura: 2 minuti. Il malware basato sull’intelligenza artificiale è arrivato, e la lotta tra difensori e attaccanti diventa sempre più sofisticata

Tempo di lettura: 2 minuti.

Da anni si sviluppano sistemi di cybersecurity basati sull’apprendimento automatico, e ora anche i criminali informatici utilizzano l’intelligenza artificiale per creare malware sempre più avanzati. Scopriamo come queste nuove minacce stanno cambiando il panorama della sicurezza informatica.

La corsa all’automazione tra difensori e attaccanti

I difensori della sicurezza informatica sono stati in grado di automatizzare il loro lavoro per molto tempo, consentendo un’ottima rilevazione, analisi e tempi di reazione a velocità di macchina. Al contrario, gli attaccanti hanno dovuto costruire e distribuire manualmente i loro attacchi, il che significa che quando vengono bloccati, devono apportare modifiche a una velocità umana molto più lenta.

Malware automatizzati e l’aumento della velocità di reazione

La tecnologia per gestire campagne di malware e aggirare automaticamente nuove difese è sicuramente possibile oggi, ma finora non abbiamo visto nulla del genere. Tuttavia, quando ciò accadrà, sarà evidente che la velocità di reazione dei nostri nemici è passata da quella umana a quella delle macchine.

Deepfake e l’uso criminale dell’intelligenza artificiale

I deepfake sono probabilmente la prima cosa che viene in mente quando si parla dell’uso criminale o malintenzionato dell’intelligenza artificiale. Oggi è facile creare immagini realistiche di persone false, e le vediamo spesso utilizzate in truffe sentimentali e altri casi di frode. Tuttavia, i deepfake di persone reali sono qualcosa di completamente diverso, e sebbene l’abuso di immagini, voci e video deepfake sia ancora relativamente limitato, è certo che la situazione peggiorerà.

Modelli di linguaggio di grandi dimensioni e il malware LLMorpher

I modelli di linguaggio di grandi dimensioni (LLM) come GPT, LAMDA e LLaMA sono in grado non solo di creare contenuti in linguaggi umani, ma anche in tutti i linguaggi di programmazione. Abbiamo appena assistito al primo esempio di un pezzo di codice autoreplicante che utilizza modelli di linguaggio di grandi dimensioni per creare infinite varianti di se stesso. L’autore del malware, SPTH, ha sviluppato il codice autoreplicante chiamato LLMorpher, che può infettare programmi scritti nel linguaggio Python.

Come bloccare malware come LLMorpher?

LLMorpher non può funzionare senza GPT, che non è disponibile per il download. Ciò significa che OpenAI, il creatore di GPT, può semplicemente bloccare chiunque utilizzi GPT per scopi malevoli. Alcuni modelli simili sono scaricabili (come LLaMA), quindi è probabile che li vedremo incorporati nel malware in futuro.

Rilevare comportamenti malevoli per contrastare il malware basato sull’intelligenza artificiale

Rilevare comportamenti malevoli è la strategia migliore contro il malware che utilizza modelli di linguaggio di grandi dimensioni, e ciò può essere fatto al meglio dai prodotti di sicurezza, che a loro volta utilizzano l’apprendimento automatico!

La lotta tra intelligenze artificiali buone e cattive

In conclusione, l’unico modo per contrastare un’intelligenza artificiale malintenzionata è utilizzare un’intelligenza artificiale buona. La sfida tra difensori e attaccanti diventa sempre più sofisticata, e sarà fondamentale essere al passo con le ultime tecnologie e strategie per proteggere i sistemi informatici.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version