Un computer che ragiona come un bambino: può sembrare poca cosa ma è un grande passo in avanti verso l'intelligenza artificiale. Un software americano ha infatti superato un test impiegato dagli psicologi per conoscere a che età un bambino impara a immedesimarsi negli altri, come fanno gli adulti. Ma non è la prima volta che i computer e i robot vengono sottoposti a test d'intelligenza...
Andrea Porta, 14 marzo 2008
Una fotogramma dal video del false belief test: il robot è controllato dal software. Il filmato integrale, sottotitolato in inglese, è on line a questo indirizzo. |
Ha superato senza incertezze il "false belief test" (test della falsa credenza), il software sviluppato da Selmer Bringsjord, del Rensselaer Polytechnic Institute di Troy (Usa). La prova, impiegata dagli psicologi per determinare l'età a cui i bambini sviluppano una modalità di pensiero adulta, consiste in un filmato mostrato al soggetto sotto esame in cui un bambino nasconde un oggetto in un cassetto per poi uscire dalla stanza. A quel punto entra la mamma, che estrae l'oggetto e lo mette in un altro posto. Incapaci di vedere il mondo attraverso gli occhi del protagonista del filmato, i bambini che osservano la scena sono portati a credere che, una volta rientrato nella stanza, il bimbo cercherà l'oggetto laddove l'ha collocato la mamma: non capiscono cioè che ciò che hanno visto loro è diverso da ciò che vedono gli occhi degli altri. Questa abilità viene normalmente raggiunta solo verso i 4-5 anni.
Valigie e pistole
Per il test, i ricercatori hanno fatto uso di una simulazione simile a quella del mondo virtuale di Second Life. In questo caso i protagonisti erano due avatar umani "mossi" dai ricercatori e un terzo avatar, un robot, controllato dal software. Il filmato dell'esperimento (on line a questo indirizzo) mostra l'intero sviluppo del test: il robot osserva gli sperimentatori che nascondono una pistola in una di due valigie. Poi uno dei ricercatori esce e l'altro cambia la posizione dell'arma. Solo quando il primo ricercatore rientra, il secondo chiede al robot intelligente dove crede che il collega cercherà la pistola. Come nel test sui bambini, anche qui la risposta esatta del software rivela la capacità di immedesimazione e un'intelligenza "matura".
Il test di Turing
L'idea di sottoporre a test d'intelligenza le macchine non è nuova: il precursore del concetto di intelligenza artificiale, il matematico inglese Alan Turing, già nel 1950 aveva progettato un test analogo per certificare l'intelligenza di una macchina: una persona in carne e ossa e un computer rispondono (per iscritto) alle domande poste da una seconda persona. Se leggendole quest'ultima non è in grado di capire chi è l'uomo e chi la macchina, il software che la fa funzionare può essere definito intelligente.
A un passo dal pensiero
Fino a oggi però nessuno è mai riuscito a mettere a punto un computer capace di superare il test di Turing, anche se lo scorso anno il robot Leonardo, progettato da Cynthia Breazeal (Mit), vi si era avvicinato. In una serie di prove aveva infatti mostrato capacità non molto diverse da quelle del software del Polytechnic Institute. Ma quello che ancora manca, ai robot e ai software che li fanno funzionare, è la capacità di apprendere autonomamente questa modalità di pensiero, proprio come fanno i bambini quando crescono. A quando la prima macchina davvero intelligente?