Go-AlphaGo-LeeSedolHoy, el surcoreano Lee Sedol, campeón mundial del juego de mesa GO, ha logrado su primera victoria contra la aplicación de “Cognitive Computing” AlphaGo  de Google. Ha sido en la cuarta de las cinco partidas de las que consiste el torneo que se realiza en Seúl (Corea del Sur).

Lee Sedol, en realidad, ya perdió el torneo después de que AlphaGo ganara las tres primeras partidas, pero el hecho que hoy Lee haya ganado al sistema es noticia. Si les apeteciera, el próximo martes pueden seguir en directo la final en YouTube.

Según un tweet de Demis Hassabis,  CEO y cofundador de DeepMind (compañía de inteligencia artificial inglesa adquirida por Google en 2014), el sistema AlphaGo se confundió y no se dio cuenta que había cometido un error hasta diez movimientos después. Pero aunque parezca un contrasentido, esto es una bendición divina para los ingenieros informáticos que están detrás de esta aventura. Ellos dicen: “the machine is expected to learn from its mistakes”.

Honestamente yo no sé jugar al GO, en mi época de juventud solo había el ajedrez en mi pueblo. Pero recuerdo que hace años la Facultad de Informática de Barcelona tenía un Club de Go (no sé si aún existe) que organizaba torneos. Solo me quedó la idea de que la complejidad del juego lo difiere totalmente del ajedrez. Como decía Google en su blog oficial hace unas semanas:

Aunque las reglas son simples, el Go es un juego de profunda complejidad.Existen 1,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000 posibles posiciones, eso es más que un gúgol  (10 elevado a 100) veces más grande que el ajedrez.

Esta complejidad es precisamente lo que hace que el GO sea algo difícil de jugar para los supercomputadores, y por lo tanto un reto irresistible para los investigadores del campo de la computación cognitiva. La supremacía de los ordenadores en competiciones hombre-máquina ya se dio en el encuentro entre Garry Kasparovy el ordenador Deep Blue de IBM al ajedrez en 1997. También cuando otro sistema de IBM, llamado Watson,  ganó a dos campeones del programa Jeopardy en 2011. Pero hasta la fecha, el GO era un terreno donde los supercomputadores jugaban como principiantes.

Los modelos machine learning tradicionales de computación cognitiva basados en la búsqueda en árbol sobre todas las posibles posiciones no sirve para el GO si tenemos en cuenta la magnitud del problema que acabamos de mencionar. Por ello, AlphaGo complementa esta opción con Deep Learning.

Sinceramente, no he entrado en detalle sobre cómo abordan el problema, pero la idea es que la entrada que usan para la red neuronal de su Deep Learning es una descripción del tablero de GO, y la red neuronal está formada por múltiples capas que contienen millones de conexiones entre sus neuronas. En realidad son más de una red neuronal las que usan, por lo que explica el equipo de DeepMind en su artículo publicado en la revista Nature.

Estas redes neuronales han sido entrenadas con millones de movimientos gracias a expertos humanos en el juego del GO como Fan Hui (lo que definimos como aprendizaje supervisado) y a la vez con lo que se conoce con Reinforce learning: a partir de juegos que ha realizado la máquina por si sola, va aprendiendo mediante un modelo de prueba y error, por decirlo de alguna manera. En ningún sitio he encontrado la potencia de cálculo usada, solo que han usado su Google Cloud Platform, pero sin duda habrá sido algo espectacular al alcance solo de Google y pocos más.

Pero aunque les parezca un contrasentido, en Google están saltando de alegría por haber perdido, porque esto en realidad les permitirá mejorar la máquina. ¡No lo duden!

 

ACTUALIZACIÓN 15/03/2016:  Resultado final AlphaGo 4 – 1 Lee Sedol. 

ACTUALIZACIÓN 21/03/2016: creación de la ilustración.

2017-08-08T22:48:58+00:00 March 13th, 2016|