L'uomo non è l'unico a potersi sbagliare a prima vista (o a primo ascolto): talvolta è sufficiente un paio di occhiali per beffare un esperto software di riconoscimento facciale.
Attenzione però: questo tipo di approccio può ingannare anche altri tipi di intelligenza artificiale, come quelli sui quali si basano le auto senza conducente. Aggiungendo un po' di "rumore" digitale a immagini e stimoli sonori si riesce a confondere i sistemi di riconoscimento vocale o quelli "visivi" dei veicoli.
L'allarme arriva da Moustapha Cissé, un ricercatore che si occupa di intelligenza artificiale per Facebook. Assieme ai colleghi ha verificato che anche piccole manipolazioni degli stimoli - difficili da notare persino per l'uomo - potrebbero essere utilizzate dagli hacker per spingere un'auto senza conducente a ignorare un parcheggio, un segnale stradale o un pedone, o per far sì che una videocamera di sorveglianza non si accorga del passaggio di un sospetto.
Inganno sottile. Questi sistemi sono detti esempi avversi (quello messo a punto dai nerd di Facebook si chiama, non a caso, Houdini, come il famoso illusionista) e portano le reti neurali a classificare in modo errato gli input esterni.
Indifese (per ora). Cissé ha dimostrato che gli algoritmi che controllano il sistema di classificazione delle immagini usato dalle auto a guida automatica possono essere ingannati da Houdini, un'eventualità particolarmente inquietante, se sfruttata dalle mani sbagliate, perché non esistono al momento sistemi per evitarlo. In futuro, le macchine ad apprendimento automatico potrebbero però imparare gradualmente a difendersi da sole.
Provateci sulla strada... Non tutti sono così pessimisti. David Forsyth dell'Università dell'Illinois at Urbana-Champaign ha realizzato un finto cartello stradale digitalmente manipolato, per mettere alla prova questi stessi algoritmi. Quando il segnale è stato mostrato a una telecamera in movimento - come quella delle auto senza conducente - il software non si è fatto fregare.
Meno asettico. Questo perché con gli stimoli distraenti già naturalmente presenti nel mondo reale, come i diversi angoli di incrocio, la luce, i lampi, gli esempi avversi sembrano funzionare meno che in laboratorio. Nel brusio generale gli inganni risultano cioè più difficili da notare.
Il team di OpenAI, l'organizzazione che mette in guardia dai rischi dello sviluppo sregolato dell'intelligenza artificiale, fa però notare che è possibile beffare i sistemi di riconoscimento di immagini anche presentando lo stimolo da diverse angolazioni. Non c'è che sperare che le macchine imparino a tutelarsi da sole. Per tentativi ed errori.