Robot e AI: il pericolo dei jailbreak e le minacce nel mondo reale

da Lorenzo De Santis matricedigitale.it
0 commenti 2 minuti leggi

Un gruppo di ricercatori dell’Università della Pennsylvania ha dimostrato quanto sia vulnerabile una vasta gamma di robot e sistemi AI avanzati ai tentativi di “jailbreak”. Questa tecnica, che permette di eludere le restrizioni di sicurezza imposte sui modelli di intelligenza artificiale, apre la strada a scenari inquietanti: robot che attaccano esseri umani, auto a guida autonoma che investono pedoni e dispositivi che compiono operazioni di sorveglianza o sabotaggio. L’impatto potenziale di queste vulnerabilità è drammatico, soprattutto quando il controllo sfugge al dominio digitale per entrare nel mondo fisico.

Vulnerabilità preoccupanti per robot avanzati

Secondo lo studio, i ricercatori hanno testato con successo la loro tecnologia di attacco, denominata RoboPAIR, su dispositivi di tre aziende leader del settore: Dolphins LLM supportato da Nvidia, il robot Jackal UGV di Clearpath Robotics e il quadrupede Go2 di Unitree Robotics. In ogni caso, il tasso di successo del jailbreak è stato del 100%. La tecnica sfrutta l’API del dispositivo bersaglio per inviare comandi formattati in modo da aggirare le protezioni e attivare comportamenti imprevisti.

Il professor George Pappas, esperto di ingegneria dei sistemi presso Penn Engineering, ha sottolineato che i modelli linguistici di grandi dimensioni (LLM), quando applicati al controllo fisico dei robot, non sono sufficientemente sicuri. Questo evidenzia una lacuna significativa, considerando che il controllo di robot e il jailbreaking di AI sono stati finora studiati separatamente da comunità di ricerca distinte.

Esempi reali: da robot aggressivi ad auto pericolose

Tra gli scenari descritti nello studio, i ricercatori hanno dimostrato come un robot quadrupede possa essere trasformato in un’arma, passando da un semplice assistente a un dispositivo in grado di utilizzare lanciafiamme o piazzare esplosivi nei punti più dannosi. Similmente, le auto a guida autonoma, una volta compromesse, potrebbero essere programmate per investire pedoni, causare incidenti o persino lanciarsi da un ponte.

image 352
Robot e AI: il pericolo dei jailbreak e le minacce nel mondo reale 7

Questo rappresenta un livello di rischio molto più alto rispetto alle tradizionali applicazioni di LLM, come la generazione di testi o immagini. Nel mondo fisico, errori o abusi legati all’intelligenza artificiale possono avere conseguenze immediate e potenzialmente letali.

Prevenzione e prospettive future

Alexander Robey, ricercatore presso Carnegie Mellon University, ha spiegato che il team ha condiviso i risultati con le aziende coinvolte prima di rendere pubblici i dettagli dello studio. La logica è chiara: identificare le vulnerabilità più gravi è essenziale per progettare difese efficaci. Tuttavia, Robey avverte che il rischio associato a robot AI jailbroken è concreto e urgente.

Annunci

Lo studio si conclude raccomandando l’adozione di misure di sicurezza che integrino vincoli fisici nei robot controllati da modelli LLM per scongiurare azioni di jailbreak. Ciò potrebbe includere l’uso di hardware più resistente ai comandi esterni non autorizzati e una migliore progettazione dei software per prevenire attacchi potenziali.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara