Robot a scuola di insicurezza

Insegnare a macchine e droni a dubitare delle proprie capacità potrebbe tenerli lontani dai guai, minimizzando i rischi di incidenti. Ecco i risultati dei primi esperimenti in questa direzione.

con_h_25.f012-0802_web
Domande sempre più complesse.|Science Photo Library/Contrasto

C'è una "vocina" che ci intima di non avventurarci in situazioni pericolose: per alcuni parla più forte che per altri, ma per tutti è l'istinto che ci mantiene in vita. I robot non ce l'hanno.

 

Il mondo reale è però pieno di ostacoli e imprevisti, e se anche le macchine potessero dubitare delle proprie capacità, diverrebbero forse più prudenti, riducendo eventuali guasti.

Valutazione dei rischi. In uno studio preliminare sui droni, un team di scienziati della Canergie Mellon University ha lavorato per "instillare nei velivoli" un senso di insicurezza e una forma rudimentale di introspezione. L'idea è di sfruttare l'intelligenza artificiale per affinare, nei droni, la capacità di predire gli esiti di future azioni.

 

In base alle immagini catturate dalla videocamera del robot, un algoritmo valuta se l'azione successiva finirà in un incidente. In pratica "predice" gli esiti di un'azione futura, una capacità molto diversa dalla semplice individuazioni di ostacoli: quello messo a punto dal team è più un sistema di comprensione dei pericoli, che di reazione ad essi.

 

Permetterebbe, per esempio, di evitare condizioni meteo che possano danneggiare i sensori, o luoghi troppo bui per il funzionamento della videocamera.

 

Risultati promettenti. Nei primi test, la capacità di "dubbio" ha permesso al drone di muoversi per un chilometro tra gli alberi di una foresta, più del doppio della distanza coperta dai droni che non avevano quell'algoritmo in funzione.

 

Quello della Canergie Mellon non è l'unico studio in questa direzione. I ricercatori di Microsoft stanno sperimentando il funzionamento simultaneo di diversi algoritmi implicati in processi decisionali. E hanno già messo a punto un sistema di intelligenza artificiale capace di valutare se l'umano con cui sta "parlando" ha bisogno di più tempo del previsto per elaborare una risposta.

 

 

05 Agosto 2016 | Elisabetta Intini