Sommario
Un team di ricercatori principalmente basati in università di Singapore ha dimostrato come sia possibile attaccare i veicoli autonomi manipolando i sensori basati su visione computerizzata. L’attacco, che mira ai sistemi usati da marchi come Tesla e Baidu Apollo, potrebbe causare gravi rischi per la sicurezza, rendendo i veicoli incapaci di riconoscere i segnali stradali.
Dettagli del metodo di attacco “GhostStripe”
La tecnica, denominata “GhostStripe”, sfrutta la vulnerabilità dei sensori a semiconduttori di ossido metallico complementare (CMOS), che catturano un’immagine linea per linea. Modificando rapidamente la luce di diodi lampeggianti, i ricercatori sono stati in grado di alterare la percezione del colore di un segnale stradale da parte della camera. Questo porta a una distorsione tale che il sistema di classificazione basato su reti neurali profonde non riesce a riconoscere il segnale.
Successo e implicazioni dell’attacco
Gli esperimenti condotti su strada con vere e proprie insegne stradali hanno mostrato un tasso di successo del 94% per GhostStripe1 e del 97% per GhostStripe2, suggerendo una grave minaccia per la sicurezza e l’affidabilità dei veicoli autonomi. L’attacco GhostStripe1 non richiede accesso diretto al veicolo e utilizza un tracciatore per monitorare la posizione in tempo reale del veicolo e regolare il lampeggio dei LED di conseguenza. Al contrario, GhostStripe2 è un attacco mirato che richiede l’accesso al veicolo, probabilmente durante la manutenzione, per posizionare un trasduttore sul filo di alimentazione della camera.
Considerazioni ambientali e contrattacchi
L’efficacia dell’attacco diminuisce con l’aumento della luce ambientale, che può sovrastare la luce dell’attacco. Questo suggerisce che i criminali informatici dovrebbero considerare tempo e luogo quando pianificano un attacco. Come contromisure, si potrebbero sostituire le fotocamere CMOS con dispositivi a dispositivi di carica accoppiata (CCD) o randomizzare la cattura dell’immagine di linea.
Questo studio si unisce a una serie di ricerche che hanno sfruttato input avversari per ingannare i sistemi di reti neurali dei veicoli autonomi. Mentre le tecnologie AI e di veicolo autonomo continuano a evolversi, rimangono significative preoccupazioni per la sicurezza che devono essere affrontate per garantire la protezione contro attacchi simili.