Google logra que un robot aprenda a andar sin ninguna ayuda externa

Combinando distintos enfoques, algoritmos y trucos de diseño, la máquina aprendió a navegar por distintas superficies de forma completamente autónoma. Se trata de un gran avance, pero aún necesita mejorar para que pueda replicarse en otras máquinas y en cualquier entorno del mundo real.

Google

A los 10 minutos después de nacer, un cervatillo ya es capaz de ponerse de pie. En siete horas, ya puede caminar. Entre esos dos logros, mueve sin cesar sus extremidades de forma adorable y frenética para aprenderlo.

Esa es la idea detrás de la robótica impulsada por inteligencia artificial (IA). Aunque los robots autónomos, como los coches sin conductor, ya son un concepto conocido, los robots de aprendizaje autónomo siguen siendo solo una ilusión. Los ya existentes algoritmos de aprendizaje reforzado, que permiten a los robots aprender movimientos mediante prueba y error, aún dependen en gran medida de la intervención humana. Cada vez que un robot se cae o sale de su entorno de entrenamiento, necesita que alguien lo recoja y lo vuelva a colocar en la posición correcta.

Pero este estudio de Google ha logrado un importante avance hacia los robots capaces de aprender a moverse por sí solos. En unas pocas horas, y exclusivamente a partir de ajustes de los últimos algoritmos más avanzados, lograron que un robot de cuatro patas aprendiera a caminar hacia adelante y hacia atrás, y a girar a la izquierda y a la derecha, completamente solo.

El trabajo se basa en investigaciones anteriores del año pasado, cuando el mismo grupo descubrió una forma de que el robot aprendiera directamente en el mundo real. El aprendizaje reforzado suele realizarse en entornos virtuales: un modelo virtual del robot se mueve alrededor de un modelo virtual del entorno hasta que el algoritmo se vuelve lo suficientemente sólido para operar de manera segura. Luego se incorpora al robot físico.

Este enfoque resulta útil para evitar daños en el robot y sus alrededores durante su proceso de prueba y error, pero también requiere un entorno fácil de modelar. La dispersión natural de la arena o los muelles de un colchón tardan tanto en simularse que simplemente no vale la pena.

En este caso, los investigadores decidieron evitar por completo los desafíos del modelado entrenando al robot en el mundo real desde el principio. Diseñaron un algoritmo más eficiente que podía aprender con menos pruebas y, por lo tanto, menos errores, y lograron tener listo al robot en solo dos horas. Como el entorno físico proporcionaba una variación natural, el robot también pudo adaptarse rápidamente a otros entornos razonablemente similares, como pendientes, escalones y terreno plano con obstáculos.

Pero una persona aún tendría que cuidar del robot e interferir manualmente cientos de veces, asegura el coautor del estudio que dirige el equipo de movimientos robóticos en Google Brain, Jie Tan, y admite: “Al principio, no caí en eso”.

Así que empezaron a resolver este nuevo problema. Primero, delimitaron el terreno que el robot podía explorar y lo hicieron entrenar en múltiples maniobras a la vez. Si el robot llegaba al borde del marco delimitador mientras aprendía a caminar hacia adelante, cambiaba de dirección y empezaba a aprender a caminar hacia atrás.

Después, también restringieron los movimientos de prueba del robot, haciéndolo suficientemente cauteloso para minimizar el daño causado por las repetidas caídas. Para los momentos en los que el robot inevitablemente se caía, añadieron otro algoritmo codificado para ayudarle a levantarse.

Mediante estos diversos ajustes, el robot aprendió a caminar de manera autónoma por encima de varias superficies diferentes, como el suelo plano, colchón de espuma viscoelástica y un felpudo con ranuras. El trabajo muestra el potencial para futuras aplicaciones que podrían requerir que los robots naveguen por los terrenos difíciles y desconocidos sin la presencia de humanos.

La profesora asistente de la Universidad de Stanford (EE. UU.) Chelsea Finn, quien también colabora con Google, pero no participó en esta investigación, afirma: “Creo que este trabajo resulta bastante fascinante. Eliminar a los humanos del proceso es realmente difícil. Al permitir que los robots aprendan de manera más autónoma, los robots están más cerca de poder aprender en el mundo real en el que vivimos, en vez de en un laboratorio”.

Sin embargo, advierte que actualmente el proyecto depende de un sistema de captura de movimiento sobre el robot para determinar su ubicación. Eso no será posible en el mundo real.

En el futuro, los investigadores esperan adaptar su algoritmo a diferentes tipos o a múltiples robots que aprenden al mismo tiempo en el mismo entorno. Finalmente, Tan cree que el aprendizaje de movimiento autónomo será clave para crear robots más útiles. Y concluye: “Muchos lugares están creados para humanos, y todos tenemos piernas. Si un robot no puede usar las piernas, no podrá moverse por el mundo humano“.

MIT