Una nuova minaccia alle auto senza conducente

Aggiungendo un po' di "rumore" agli stimoli è possibile far credere ai software di aver visto o sentito qualcosa che non c'è: la tecnica potrebbe essere usata dagli hacker per beffare il riconoscimento di cartelli, pedoni e parcheggi nei veicoli autonomi.

shutterstock_649829878
Controllata dalle mani sbagliate, sarebbe un'arma pericolosa. Che cosa succede se un hacker prende il controllo di un'auto a distanza?|Shutterstock

L'uomo non è l'unico a potersi sbagliare a prima vista (o a primo ascolto): talvolta è sufficiente un paio di occhiali per beffare un esperto software di riconoscimento facciale.

 

Attenzione però: questo tipo di approccio può ingannare anche altri tipi di intelligenza artificiale, come quelli sui quali si basano le auto senza conducente. Aggiungendo un po' di "rumore" digitale a immagini e stimoli sonori si riesce a confondere i sistemi di riconoscimento vocale o quelli "visivi" dei veicoli.

 

L'allarme arriva da Moustapha Cissé, un ricercatore che si occupa di intelligenza artificiale per Facebook. Assieme ai colleghi ha verificato che anche piccole manipolazioni degli stimoli - difficili da notare persino per l'uomo - potrebbero essere utilizzate dagli hacker per spingere un'auto senza conducente a ignorare un parcheggio, un segnale stradale o un pedone, o per far sì che una videocamera di sorveglianza non si accorga del passaggio di un sospetto.

 

Inganno sottile. Questi sistemi sono detti esempi avversi (quello messo a punto dai nerd di Facebook si chiama, non a caso, Houdini, come il famoso illusionista) e portano le reti neurali a classificare in modo errato gli input esterni.

 

Indifese (per ora). Cissé ha dimostrato che gli algoritmi che controllano il sistema di classificazione delle immagini usato dalle auto a guida automatica possono essere ingannati da Houdini, un'eventualità particolarmente inquietante, se sfruttata dalle mani sbagliate, perché non esistono al momento sistemi per evitarlo. In futuro, le macchine ad apprendimento automatico potrebbero però imparare gradualmente a difendersi da sole.

 

Provateci sulla strada... Non tutti sono così pessimisti. David Forsyth dell'Università dell'Illinois at Urbana-Champaign ha realizzato un finto cartello stradale digitalmente manipolato, per mettere alla prova questi stessi algoritmi. Quando il segnale è stato mostrato a una telecamera in movimento - come quella delle auto senza conducente - il software non si è fatto fregare.

 

Meno asettico. Questo perché con gli stimoli distraenti già naturalmente presenti nel mondo reale, come i diversi angoli di incrocio, la luce, i lampi, gli esempi avversi sembrano funzionare meno che in laboratorio. Nel brusio generale gli inganni risultano cioè più difficili da notare.

 

Il team di OpenAI, l'organizzazione che mette in guardia dai rischi dello sviluppo sregolato dell'intelligenza artificiale, fa però notare che è possibile beffare i sistemi di riconoscimento di immagini anche presentando lo stimolo da diverse angolazioni. Non c'è che sperare che le macchine imparino a tutelarsi da sole. Per tentativi ed errori.

 

30 Luglio 2017 | Elisabetta Intini

Codice Sconto