Un computer di Google ha battuto il campione europeo di Go

Per la prima volta un computer ha battuto un campione di Go, uno dei più complessi giochi di strategia mai ideati dall'uomo. Ci è riuscito "rubandoci" alcuni segreti dell'apprendimento. È un grandissimo passo avanti per l'intelligenza artificiale

alphago
Un momento della sfida tra il computer AlphaGo e Fan Hui, campione europeo di Go. |

Computer 1 - uomo 0: un software è riuscito per la prima volta a sconfiggere un campione di Go, un complesso gioco strategico da tavolo considerato una delle sfide più ardue per l'intelligenza artificiale.

 

AlphaGo, un programma della DeepMind, filiale londinese di Google che si occupa di AI e machine learning, ha sconfitto in 5 tornei su 5 Fan Hui, campione europeo di Go. Finora i computer erano riusciti a battere avversari umani in partite di scacchi, dama e backgammon, ma per vincere a Go avevano bisogno di giocare contro rivali partiti in notevole svantaggio.

 

infinite combinazioni. Il Go, molto popolare in Asia, è un gioco strategico in cui due avversari devono cercare di conquistare territorio spostando e mangiando pedine su una griglia di 19 caselle per 19. Un proverbio coreano stabilisce che non ci siano mai state due partite di Go perfettamente identiche: in effetti, una partita media di 150 mosse lascia aperto un numero possibile di configurazioni delle pedine pari a 10170, maggiore delle 1050 possibili configurazioni di una partita di scacchi e persino del numero di atomi stimato (1080) per l'intero Universo.

 

Primo in assoluto. Ecco perché questo gioco non può essere risolto da algoritmi che semplicemente analizzino insistentemente tutte le mosse finché trovano quella vincente. AlphaGo si è dimostrato il migliore anche nei match con avversari "alla pari", vincendo nel 99,8% dei confronti contro i migliori software in questo campo.

 

Poco alla volta. Il suo segreto? Non è stato esplicitamente programmato per giocare a Go, come accadde per il Deep Blue, il computer che sconfisse il campione di scacchi Garry Kasparov nel 1997. Ma ha appreso le mosse poco a poco, grazie a un algoritmo che impara a interpretare le possibili configurazioni della scacchiera, e che potrebbe un giorno servire a risolvere situazioni complesse della vita reale, come la diagnosi di situazioni cliniche o elaborati modelli climatici.

 

Esercizio continuo. Per raggiungere il loro scopo, i ricercatori della DeepMind hanno utilizzato network neurali artificiali - programmi in cui connessioni ispirate a quelle tra i neuroni umani vengono fortificate attraverso l'esempio e l'esperienza. Al software sono state dapprima date "in pasto" 30 milioni di mosse di esperti del gioco, per fargli acquisire informazioni astratte sul funzionamento del gioco.

 

Poi AlphaGo ha sfidato altre versioni di se stesso su 50 diversi computer, migliorando ad ogni interazione (una tecnica nota come apprendimento per rinforzo).

 

Questa non serve. A quel punto era già competitivo con i migliori software al mondo per il gioco del Go, ma i suoi creatori gli hanno dato una carta in più: la capacità non solo di determinare la sequenza di mosse migliori per arrivare alla vittoria, ma anche di scartare quelle inutili e non efficaci (pruning), accelerando la ricerca di migliori soluzioni.

 

Nuove sfide. Insomma AlphaGo ha agito apprendendo poco a poco come un umano, dimostrando ancora una volta le prospettive del deep learning, un campo di ricerca su apprendimento automatico e intelligenza artificiale in cui Google sta investendo moltissimo. Il prossimo passo sarà capire come far trasferire le conoscenze apprese nel gioco del Go ad altri ambiti, compito in cui il software per ora ha fallito. Ma prima,a marzo, c'è la sfida contro il campione del mondo di Go.

 

28 gennaio 2016 | Elisabetta Intini