Una Inteligencia Artificial aprendió a jugar Montezuma tan solo mirando

montezuma

El último proyecto de OpenAI busca demostrar cómo una mente digital puede imitar -y superar- a un humano, incluso jugando videojuegos.


La Inteligencia Artificial no solo ha sido creada para realizar cálculos complejos o tareas de alto análisis, sino que también, como toda persona que trabaja, necesita recrearse.

Es por eso que el proyecto OpenAI, la organización sin fines de lucro que busca desarrollar aplicaciones análisis de datos abiertas para todo público, ha estado experimentando con videojuegos para mejorar la manera con la que estos programas aprenden e improvisan sobre el momento.

Y uno de estos experimentos involucra a uno de los juegos más recordados de la era del Atari: La Venganza de Montezuma. Un juego sencillo, pero que posee elementos de exploración que lo hacen más interesante para este tipo de experimentos.

¿Y cómo aprendió a jugar esta IA? No leyendo el manual ni por ensayo y error, sino que como todo el mundo aprende a jugar hoy en día: por YouTube.

Bueno, casi. Resulta que esta Inteligencia Artificial fue sometida a una sesión de demostración, hecha por un humano, con la cual debe entender como se hace, memorizar y en lo posible, mejorar.

La demostración humana del juego fueron 12 minutos que concluyeron en 71.500 puntos. La versión digital miró ese gameplay una vez y luego fue su turno: duró prácticamente el mismo tiempo, pero hizo 74.500 puntos, ya que recogió más diamantes e incluso encuentra un exploit para generar una llave extra, algo que no hizo el jugador original al que estaría imitando.

El siguiente desafío de OpenAI será un poco más complejo, ya que el 28 de agosto se enfrentará en un duelo de Dota contra un equipo de profesionales.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.