La rete neurale che ci legge nel pensiero

L'hanno creata - e istruita - alcuni ricercatori giapponesi: riesce a riprodurre l'immagine che state vedendo, o alla quale state pensando, senza bisogno di macro-categorie di riferimento, e con una buona approssimazione: giudicate voi stessi.

shutterstock_95312896
Vuoi vedere che so che cosa stai guardando?|Shutterstock

Annunci mirati, suggerimenti di amicizie e di ricerche: a volte rimaniamo stupefatti dalla capacità di computer e smartphone di "leggerci nel pensiero". In futuro, però, questo potrebbe essere normale: potremmo dover convivere con macchine che riescono per davvero a scrutare nella nostra mente, a capire che cosa stiamo guardando (o immaginando) e a rispondere di conseguenza.

 

Una nuova, interessante ricerca in questa direzione è stata condotta in Giappone: quattro ricercatori dell'Università di Kyoto hanno sviluppato una rete neurale in grado di decifrare le immagini che vediamo "leggendo" la nostra attività cerebrale, e di mostrarle a sua volta.

 

Un passo in avanti. Non è la prima volta che si tenta questa strada, ma i precedenti sistemi gestivano soltanto categorie ristrette di immagini (per esempio, "volti"). Le loro ricostruzioni si basavano su una serie di categorie semantiche memorizzate in precedenza, mentre il soggetto guardava alcune immagini: dati pregressi con i quali ogni nuovo input veniva confrontato. Per questa ragione la loro capacità di "lettura del pensiero" era limitata ad alcune forme di base ("uccello", "torta", "persona").

 

Le immagini mostrate ai volontari (nella prima riga) e, sotto, le ricostruzioni della rete neurale. Ogni riga corrisponde a uno dei tre soggetti (clicca sulla foto per ingrandirla). | Kyoto University

Lettura complessa. La nuova tecnica, chiamata deep image reconstruction, prevede algoritmi capaci di interpretare e riprodurre immagini complesse basandosi su più livelli di lettura (per esempio forma; colore; contrasti luminosi). In altre parole gestisce e processa lo stimolo visivo in modo gerarchico, come fa il cervello umano.

 

Lo studio è durato 10 mesi e ha coinvolto tre persone a cui è stato chiesto di osservare un migliaio di immagini di tre tipologie: entità naturali (come animali o persone), forme geometriche artificiali, lettere dell'alfabeto.

 

L'attività cerebrale dei partecipanti è stata registrata con risonanza magnetica funzionale (fMRI) sia mentre guardavano le immagini, sia in seguito, mentre le immaginavano soltanto. I dati dell'attività della corteccia visiva sono poi stati dati in pasto alla rete neurale, che li ha decodificati e usati per elaborare una "propria interpretazione" delle singole immagini, lavorando, appunto, per livelli gerarchici e successivi di interpretazione.

 

 

Autonomo. Il modello è stato istruito soltanto a partire da immagini naturali - "uomini o animali" - ma poi è stato in grado di ricostruire anche lettere e forme geometriche (come si vede nel video qui sotto): questa è la prova che aveva appreso la tecnica e poteva utilizzarla partendo da zero, ossia senza dati di confronto.

 

 

Per le immagini soltanto "pensate" dai volontari (e non guardate) il processo è riuscito solo in parte: le ricostruzioni mantenevano qualche somiglianza con l'originale, ma erano più confuse di quelle di figure guardate (come confuse sono le nostre immagini mentali).

 

L'accuratezza delle rappresentazioni deve migliorare: le immagini ricreate dal modello sono riconoscibili, ma imprecise. In futuro, comunque, un'interfaccia capace di usare queste tecniche di "lettura della mente", e poi di "riferire" o agire direttamente, potrebbe avere numerose applicazioni: se utili o inquietanti, dipende dal vostro grado di ottimismo.

 

 

 

20 Gennaio 2018 | Elisabetta Intini

Codice Sconto