I robot più pericolosi? Quelli stupidi

Levatevi il pensiero di macchine più astute e intelligenti dell'uomo: in futuro dovremo temere, piuttosto, i robot ottusi, miopi e sopravvalutati.

testa-robotica
La testa vuota di un robot.

Il pericolo di macchine intelligenti che possano sfuggire al controllo dei loro creatori o essere utilizzate per scopi militari è stato espresso da molti acclamati scienziati o "big" della Silicon Valley. Ma la vera minaccia per l'umanità potrebbe essere rappresentata, più che dall'intelligenza artificiale, dalla... deficienza artificiale. Rischiamo di finire nei guai più per i robot incompetenti e goffi, che per quelli troppo astuti e primi della classe.

Almeno è quanto sostiene Alan Bundy, esperto di apprendimento automatico dell'Università di Edimburgo (Scozia), in un articolo pubblicato su Communications of the ACM. Per Bundy, tutti i più eclatanti successi raggiunti recentemente dai robot riguardano campi estremamente ristretti e specialistici: abbiamo campioni di AlphaGo, esperti lettori di labiale o maestri nell'orientamento, ma nulla che si avvicini a una visione più completa e generale dell'intelligenza.

 

Diversi da noi. L'uomo tende ad ascrivere a sistemi dalla visione limitata competenze di intelligenza generale che questi non hanno: ed è proprio qui che sorge il rischio, nel sopravvalutare le capacità di macchine essenzialmente stupide. Bundy porta l'esempio dell'Iniziativa di Difesa Strategica (Strategic Defense Initiative, SDI) proposta dal Presidente degli Stati Uniti Ronald Reagan nel 1983, un sistema per difendere gli USA da eventuali attacchi missilistici sovietici con testate nucleari.

Strette vedute. Inizialmente la proposta - che non superò mai la fase di dimostratore tecnologico - doveva basarsi su un sistema di intelligenza artificiale chiuso e libero da "interferenze umane". Tuttavia, come fecero notare molti accademici, incluso Bundy, tutti i precedenti sistemi di individuazione missilistica fino ad allora si erano imbattuti in falsi positivi, attivandosi per stormi di uccelli o per il plenilunio. Sopravvalutare le capacità delle macchine avrebbe significato, in quel caso, un rischio di guerra nucleare.

 

Per Bundy, l'apprendimento dei robot proseguirà in questa direzione, con competenze avanzate, ma strettamente incanalate. L'importante è non pensare di poter affidare a macchine "secchione", ma per molti versi ignoranti, compiti che richiedano un'intelligenza generale.

 

 

 

08 Febbraio 2017 | Elisabetta Intini