Successivo
intelligenza artificiale

Editoriale | Magazine

Intelligenza artificiale, una pedina in più

Eugenio Moschini | 6 Aprile 2016

Editoriale

Marzo 2016, computer (Intelligenza Artificiale) contro essere umano: AlphaGo sfida il campione mondiale, Lee Sedol, vincitore di diciotto tornei. Il […]

Marzo 2016, computer (Intelligenza Artificiale) contro essere umano: AlphaGo sfida il campione mondiale, Lee Sedol, vincitore di diciotto tornei. Il terreno di sfida? Il Go, un antico gioco cinese vecchio di 2.500 anni. Il risultato? Un secco 4 a 1 per AlphaGo. Il clamore, mediatico, non è stato all’altezza di quella che sicuramente ha rappresentato LA sfida uomo vs computer. Era il 1996, Garry Kasparov, campione mondiale incontrastato di scacchi giocò contro il super computer IBM Deep Blue. Anche se Kasparov, alla fine, si aggiudicò la sfida, Deep Blue vinse la prima partita (la rivincita, l’anno successivo, decretò invece la superiorità  di Deep Blue seppure con un risicato 3,5 a 2,5). Fu quello, nell’immaginario collettivo, il punto di non ritorno, il punto in cui l’intelligenza “artificiale” aveva dimostrato di poter competere con l’intelligenza umana. Il Go, rispetto agli scacchi, è un gioco apparentemente molto più semplice: i due sfidanti posizionano le pedine, tutte di uguale valore, sulle intersezioni di una griglia 19 x 19. Vince chi “conquista” il maggior numero di spazi. Questa apparente semplicità  nasconde un numero di mosse e possibilità  pari a 2 x 10170 (negli scacchi, la dimensione dell’albero delle mosse è di circa 10123). Visto il numero pressoché infinito di combinazioni, molti grandi campioni di Go hanno dichiarato che giocano d’intuito, “sentendo” che quella è la mossa giusta.

Un computer in grado “solo” di macinare calcoli (costruendo l’albero delle mosse di tutte le possibili posizioni) non avrebbe prodotto risultati utili, serviva un sistema in grado di giocare come un umano. Per realizzare AlphaGo DeepMind – acquisita da Google nel 2014 – ha creato un sistema di reti neurali e l’ha “cresciuto” con nuovi algoritmi di “apprendimento profondo” o deep learning. All’inizio AlphaGo ha valutato un database di 30 milioni di mosse umane, dopodiché le sue reti neurali, l’una contro l’altra, hanno incominciato a giocare migliaia e migliaia di partite, con un processo detto di apprendimento per rinforzo andando per tentativi ed errori. AlphaGo ha giocato, ha provato, ha sbagliato, ha “capito”: la sua “intelligenza” è stata di sviluppare, autonomamente, una sua strategia e una sua tecnica. Un processo di ottimizzazione che è continuato, sfidando gli altri sistemi artificiali di Go (e vincendo 499 partite su 500). Solo a questo punto era pronto per l’avversario umano, prima il campione europeo Fan Hui e poi il campione mondiale, battendolo contro tutti i pronostici (umani).

Lo sviluppo di una vera intelligenza artificiale ha fatto un altro passo in avanti.