Le auto a guida autonoma possono essere ingannate da auto false, pedoni e altri segnali fasulli

Google, Uber e persino Mela'S potenziale auto a guida autonoma possono essere tutti sventati da poco più di un puntatore laser fatto in casa grazie ai loro sistemi di sensori Lidar.

Jonathan Petit, scienziato principale presso la società di sicurezza del software Innovazione nella sicurezza, ha portato alla luce un'enorme vulnerabilità di sicurezza nei sensori Lidar, essenzialmente sotto gli occhi di chiunque auto a guida autonoma. In un documento di ricerca che sarà presentato al Cappello Nero Europa conferenza sulla sicurezza di novembre, Petit spiega come un laser a bassa potenza e un generatore di impulsi possano ingannare un'auto facendole credere che altre auto e pedoni siano intorno ad essa.

La vulnerabilità significa che le auto a guida autonoma potrebbero essere fermate in mezzo alla strada quando credono che un’altra macchina o una persona sia apparsa all’improvviso in vista. In una situazione in cui le auto a guida autonoma e le auto normali condividono la strada, non ho bisogno di sottolineare i pericoli di un simile hack.

Abbiamo visto altri hack di auto connesse, incluso uno che ha portato a richiamo di 1,4 milioni di Jeep, ma l'attacco di Petit funziona ingannando un'auto, piuttosto che smascherarne la debole sicurezza.

Avendo deciso di esporre i problemi di sicurezza legati alle auto autonome, Petit ha iniziato registrando gli impulsi provenienti da un'unità commerciale Ibeo Lux Lidar. Scoprendo che gli impulsi non erano codificati o crittografati, avrebbe potuto semplicemente usarli in un secondo momento per ingannare l'unità facendole credere che gli oggetti fossero lì quando non lo erano. "L'unica parte difficile era essere sincronizzati, per inviare il segnale al Lidar al momento giusto", ha detto Petit. "Allora il Lidar ha pensato che ci fosse chiaramente un oggetto lì."

"Posso falsificare migliaia di oggetti e fondamentalmente effettuare un attacco denial-of-service sul sistema di tracciamento in modo che non sia in grado di tracciare oggetti reali." Secondo IEEE, l'attacco di Petit funzionava da tutti i lati fino a 100 metri di distanza e non richiedeva che si concentrasse con precisione sull'unità Lidar con il suo raggio laser.

Anche se Petit offre una soluzione che utilizza il “rilevamento dei comportamenti scorretti” per filtrare gli ostacoli non plausibili, non crede che le case automobilistiche abbiano nemmeno pensato di fare una cosa del genere. Al momento non ci sono auto commerciali autonome sulle strade per il grande pubblico, quindi sì c’è ancora molto tempo perché Google e altri produttori di auto a guida autonoma introducano la crittografia metodi.

In definitiva, quest’ultimo hacking automobilistico è l’ennesimo segnale che le industrie solitamente dissociate dalla sicurezza dei dati ora devono iniziare a prenderla sul serio.