Google desarrolla nuevas formas de inteligencia artificial
Por años se ha puesto mucho énfasis en el aspecto aprendizaje para el desarrollo de nuevas formas de inteligencia artificial. Esta línea de investigación ha alcanzado un nuevo gran logro gracias al trabajo desarrollado por DeepMind, un equipo de investigación fundado y liderado por Demis Hassabis y que recientemente fue adquirido por el gigante tecnológico Google Inc.
El equipo DeepMind creó una red neuronal artificial, a la que denominaron deep Q-network (de aquí en adelante DQN), que recibe las imágenes de un juego de fútbol y su puntaje, en principio ni siquiera sabe qué hace cada opción del control, ni a quién controla ni cuál es el objetivo del juego, sólo sabe que debe tratar de obtener un alto puntaje.
Después de varias sesiones de entrenamiento, el sistema ya sabe cómo jugar y puede superar el desempeño de un jugador profesional y de otros programas que han sido creados con propósitos similares.
Es interesante notar que, una vez más, los programas con los que DQN compitió estaban diseñados y programados para jugar cada juego, mientras que DQN es capaz de aprender a jugar muchos juegos distintos.
Las redes neuronales artificiales fueron desarrolladas hace varias décadas, inspiradas en la naturaleza: una red neuronal es un conjunto de neuronas conectadas entre ellas; cada neurona recibe señales de varias neuronas y a la vez emite señales hacia otras neuronas, de forma que si las neuronas que le envían señales están más activas, esta neurona se activará y transmitirá esta mayor actividad hacia otras neuronas.
En general, tanto las redes neuronales naturales como artificiales funcionan bajo este mismo principio.
Los componentes usados para construir esta inteligencia artificial no son nada nuevo y entre ellos están los sistema es el método de aprendizaje, el régimen de entrenamiento, y aquí es donde está la novedad de este nuevo sistema.
En lugar de simplemente poner a jugar al sistema y usar toda la información para remodelar la red, tomaron al azar sólo algunos de los lapsos de juego para que el sistema los repasara después de haber jugado.
Con este nuevo método, y después de varias sesiones de entrenamiento, el sistema aprende a usar la información visual, creando en su “mente” representaciones de los objetos y las escenas importantes, y desarrollando respuestas adecuadas a cada escenario. Sin embargo, no todo es éxito para este sistema, aun dentro del ámbito de los videojuegos, puesto que no en todos los juegos tuvo éxito.