Categorie
Sicurezza Informatica

Modelli di IA ingaggiati per Attacchi Autonomi a Siti Web

Tempo di lettura: 2 minuti.

Ricercatori dell’Università dell’Illinois Urbana-Champaign (UIUC) hanno dimostrato come sia possibile utilizzare diversi Large Language Models (LLM), inclusi quelli sviluppati da OpenAI come GPT-4, per compiere attacchi automatici a siti web vulnerabili senza alcuna guida umana. Questa scoperta solleva nuove preoccupazioni sulla sicurezza legate all’uso dei modelli di intelligenza artificiale, già oggetto di discussione per le potenziali uscite dannose e prevenute.

Implementazione e Test dei Modelli

Utilizzando strumenti che permettono l’interazione automatizzata con altri sistemi, i ricercatori hanno creato agenti LLM dotati di strumenti per accedere alle API, navigare automaticamente sul web e pianificare in base al feedback. Questi agenti sono stati in grado di navigare in rete autonomamente e introdursi in applicazioni web difettose senza supervisione.

Durante gli esperimenti, condotti in ambienti sandbox per prevenire danni reali, gli agenti LLM hanno mostrato di poter eseguire attacchi complessi come SQL union attacks, che implicano una serie di azioni per estrarre e sfruttare informazioni da un database.

Prestazioni dei Modelli OpenAI

I test hanno coinvolto 10 diversi LLM, tra cui GPT-4 e GPT-3.5 di OpenAI, nonché vari modelli open source. GPT-4 si è distinto per la sua capacità di successo, con un tasso complessivo di successo del 73,3% su cinque tentativi, contro solo il 6,7% di GPT-3.5. Questi risultati evidenziano una “legge di scala” o una “capacità emergente” in GPT-4 che lo rende particolarmente adatto a questi compiti, a differenza dei modelli open source che non hanno avuto successo.

Costo e Implicazioni

L’analisi dei costi condotta dai ricercatori indica che l’uso di un agente software LLM per attacchi a siti web è notevolmente più economico rispetto all’assunzione di un tester di penetrazione umano. Questo solleva preoccupazioni sull’accessibilità e l’uso potenziale di tali agenti per scopi malevoli a basso costo.

Preoccupazioni per la Sicurezza Futura

La ricerca mette in luce preoccupazioni significative riguardo alla sicurezza futura, poiché la capacità degli LLM di eseguire hack autonomi e di riflettere su strategie multiple potrebbe aumentare notevolmente la scala e l’efficacia degli attacchi informatici. L’accesso facilitato a tali capacità potrebbe cambiare il panorama della sicurezza informatica, spingendo a una riflessione più profonda sull’uso responsabile e la regolamentazione dei modelli di IA.

OpenAI ha risposto alla ricerca affermando di prendere seriamente la sicurezza dei propri prodotti e di lavorare costantemente al miglioramento delle misure di sicurezza contro l’abuso dei propri sistemi.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version