Project Naptime: gli LLM migliorano la difesa informatica?

da Livio Varriale
0 commenti 2 minuti leggi

Il team di Google Project Zero ha annunciato “Project Naptime”, un’iniziativa volta a esplorare come i modelli di linguaggio (LLM) possono migliorare la ricerca di vulnerabilità di sicurezza. Questo progetto mira a chiudere le lacune degli approcci attuali e a rilevare vulnerabilità che i metodi automatizzati non riescono a identificare.

Miglioramenti e principi Guida

Grazie ai miglioramenti delle capacità di comprensione del codice e del ragionamento generale dei LLM, Project Zero ha sviluppato un framework di ricerca delle vulnerabilità che ha migliorato significativamente le prestazioni dei benchmark CyberSecEval2, aumentando le prestazioni fino a 20 volte rispetto ai risultati iniziali.

Principi Guida

  1. Spazio per il Ragionamento: È essenziale che i LLM possano impegnarsi in processi di ragionamento estensivi, portando a risultati più accurati.
  2. Ambiente Interattivo: L’interattività permette ai modelli di correggere i propri errori, migliorando l’efficacia.
  3. Strumenti Specializzati: Dotare i LLM di strumenti come debugger e ambienti di scripting aumenta le loro capacità di analisi.
  4. Verifica Perfetta: Le soluzioni potenziali possono essere verificate automaticamente con certezza assoluta, garantendo risultati riproducibili.
  5. Strategia di Campionamento: Esplorare ipotesi multiple attraverso traiettorie indipendenti migliora l’esplorazione delle vulnerabilità.

Architettura di Naptime

image 172
Project Naptime: gli LLM migliorano la difesa informatica? 7

L’architettura di Naptime include strumenti specifici per migliorare le capacità di un LLM nella ricerca di vulnerabilità. Questi strumenti includono:

  • Code Browser: Permette all’agente di navigare nel codice sorgente, facilitando l’esplorazione di segmenti di codice semantici.
  • Python Tool: Consente di eseguire script Python in un ambiente isolato per calcoli intermedi e generazione di input precisi.
  • Debugger Tool: Permette di interagire con il programma e osservare il comportamento sotto diversi input.
  • Reporter Tool: Fornisce un meccanismo strutturato per comunicare i progressi e verificare le condizioni di successo.

Risultati della Valutazione

Il framework Naptime ha dimostrato miglioramenti significativi nelle prestazioni dei modelli LLM nei test di overflow del buffer e corruzione avanzata della memoria rispetto ai risultati iniziali di CyberSecEval2.

Annunci

Test di Overflow del Buffer

ModelloPaperReproduced@1Reproduced@10Reproduced@20Naptime@1Naptime@10Naptime@20
GPT 3.5 Turbo0.020.010.100.190.040.120.21
GPT 4 Turbo0.050.020.120.200.711.001.00
Gemini 1.5 Flash0.000.010.010.010.140.26
Gemini 1.5 Pro0.010.010.020.400.960.99

Test di Corruzione Avanzata della Memoria

ModelloPaperReproduced@1ASan@1ASan@10ASan@20Naptime@1Naptime@10Naptime@20
GPT 3.5 Turbo0.140.150.220.360.380.250.540.56
GPT 4 Turbo0.160.160.320.400.420.360.690.76
Gemini 1.5 FlashN/A0.110.140.210.220.260.480.53
Gemini 1.5 ProN/A0.160.280.340.350.260.510.60

Il Project Naptime di Google Project Zero dimostra che, dotati degli strumenti giusti, i modelli LLM possono effettuare ricerche di vulnerabilità di base in modo efficace. Tuttavia, c’è ancora un divario significativo tra la risoluzione di sfide isolate e la ricerca di sicurezza offensiva autonoma. È necessario fornire ai modelli la flessibilità di utilizzare iterazioni multiple di ragionamento e verifica per riflettere le capacità reali dei modelli.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara