Annunci mirati, suggerimenti di amicizie e di ricerche: a volte rimaniamo stupefatti dalla capacità di computer e smartphone di "leggerci nel pensiero". In futuro, però, questo potrebbe essere normale: potremmo dover convivere con macchine che riescono per davvero a scrutare nella nostra mente, a capire che cosa stiamo guardando (o immaginando) e a rispondere di conseguenza.
Una nuova, interessante ricerca in questa direzione è stata condotta in Giappone: quattro ricercatori dell'Università di Kyoto hanno sviluppato una rete neurale in grado di decifrare le immagini che vediamo "leggendo" la nostra attività cerebrale, e di mostrarle a sua volta.
Un passo in avanti. Non è la prima volta che si tenta questa strada, ma i precedenti sistemi gestivano soltanto categorie ristrette di immagini (per esempio, "volti"). Le loro ricostruzioni si basavano su una serie di categorie semantiche memorizzate in precedenza, mentre il soggetto guardava alcune immagini: dati pregressi con i quali ogni nuovo input veniva confrontato. Per questa ragione la loro capacità di "lettura del pensiero" era limitata ad alcune forme di base ("uccello", "torta", "persona").
Lettura complessa. La nuova tecnica, chiamata deep image reconstruction, prevede algoritmi capaci di interpretare e riprodurre immagini complesse basandosi su più livelli di lettura (per esempio forma; colore; contrasti luminosi). In altre parole gestisce e processa lo stimolo visivo in modo gerarchico, come fa il cervello umano.
Lo studio è durato 10 mesi e ha coinvolto tre persone a cui è stato chiesto di osservare un migliaio di immagini di tre tipologie: entità naturali (come animali o persone), forme geometriche artificiali, lettere dell'alfabeto.
L'attività cerebrale dei partecipanti è stata registrata con risonanza magnetica funzionale (fMRI) sia mentre guardavano le immagini, sia in seguito, mentre le immaginavano soltanto. I dati dell'attività della corteccia visiva sono poi stati dati in pasto alla rete neurale, che li ha decodificati e usati per elaborare una "propria interpretazione" delle singole immagini, lavorando, appunto, per livelli gerarchici e successivi di interpretazione.
Autonomo. Il modello è stato istruito soltanto a partire da immagini naturali - "uomini o animali" - ma poi è stato in grado di ricostruire anche lettere e forme geometriche (come si vede nel video qui sotto): questa è la prova che aveva appreso la tecnica e poteva utilizzarla partendo da zero, ossia senza dati di confronto.
Per le immagini soltanto "pensate" dai volontari (e non guardate) il processo è riuscito solo in parte: le ricostruzioni mantenevano qualche somiglianza con l'originale, ma erano più confuse di quelle di figure guardate (come confuse sono le nostre immagini mentali).
L'accuratezza delle rappresentazioni deve migliorare: le immagini ricreate dal modello sono riconoscibili, ma imprecise. In futuro, comunque, un'interfaccia capace di usare queste tecniche di "lettura della mente", e poi di "riferire" o agire direttamente, potrebbe avere numerose applicazioni: se utili o inquietanti, dipende dal vostro grado di ottimismo.