aldebaran33 artificial intelligence in cloud computing 874d3eba 7e26 4028 bdbe 126fd78af0f4

Modelli di IA ingaggiati per Attacchi Autonomi a Siti Web

Ricercatori dell’Università dell’Illinois Urbana-Champaign (UIUC) hanno dimostrato come sia possibile utilizzare diversi Large Language Models (LLM), inclusi quelli sviluppati da OpenAI come GPT-4, per compiere attacchi automatici a siti web vulnerabili senza alcuna guida umana. Questa scoperta solleva nuove preoccupazioni sulla sicurezza legate all’uso dei modelli di intelligenza artificiale, già oggetto di discussione per le potenziali uscite dannose e prevenute.

Annuncio

Implementazione e Test dei Modelli

Utilizzando strumenti che permettono l’interazione automatizzata con altri sistemi, i ricercatori hanno creato agenti LLM dotati di strumenti per accedere alle API, navigare automaticamente sul web e pianificare in base al feedback. Questi agenti sono stati in grado di navigare in rete autonomamente e introdursi in applicazioni web difettose senza supervisione.

Durante gli esperimenti, condotti in ambienti sandbox per prevenire danni reali, gli agenti LLM hanno mostrato di poter eseguire attacchi complessi come SQL union attacks, che implicano una serie di azioni per estrarre e sfruttare informazioni da un database.

Prestazioni dei Modelli OpenAI

I test hanno coinvolto 10 diversi LLM, tra cui GPT-4 e GPT-3.5 di OpenAI, nonché vari modelli open source. GPT-4 si è distinto per la sua capacità di successo, con un tasso complessivo di successo del 73,3% su cinque tentativi, contro solo il 6,7% di GPT-3.5. Questi risultati evidenziano una “legge di scala” o una “capacità emergente” in GPT-4 che lo rende particolarmente adatto a questi compiti, a differenza dei modelli open source che non hanno avuto successo.

🔴 OSSERVATORIO INTELLIGENCE: LIVE

Atlante Cyber

Costo e Implicazioni

L’analisi dei costi condotta dai ricercatori indica che l’uso di un agente software LLM per attacchi a siti web è notevolmente più economico rispetto all’assunzione di un tester di penetrazione umano. Questo solleva preoccupazioni sull’accessibilità e l’uso potenziale di tali agenti per scopi malevoli a basso costo.

Annuncio

Preoccupazioni per la Sicurezza Futura

La ricerca mette in luce preoccupazioni significative riguardo alla sicurezza futura, poiché la capacità degli LLM di eseguire hack autonomi e di riflettere su strategie multiple potrebbe aumentare notevolmente la scala e l’efficacia degli attacchi informatici. L’accesso facilitato a tali capacità potrebbe cambiare il panorama della sicurezza informatica, spingendo a una riflessione più profonda sull’uso responsabile e la regolamentazione dei modelli di IA.

OpenAI ha risposto alla ricerca affermando di prendere seriamente la sicurezza dei propri prodotti e di lavorare costantemente al miglioramento delle misure di sicurezza contro l’abuso dei propri sistemi.

Iscriviti alla Newsletter

Non perdere le analisi settimanali: Entra nella Matrice Digitale.

Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.

Torna in alto