El nuevo modelo de IA de DeepMind busca acercarse a la inteligencia humana

A algunos les preocupa que estas herramientas estén acaparando la atención y perjudicando al resto de cuestiones relevantes del campo.

MS TECH | ISTOCK

A principios de este mes, DeepMind presentó un nuevo modelo de inteligencia artificial (IA) “generalista” denominado Gato. Según anunció el laboratorio de inteligencia artificial propiedad de Alphabet, este modelo puede jugar videojuegos de Atari, subtitular imágenes, chatear y apilar bloques con un brazo robótico real. En general, Gato puede realizar hasta 604 tareas diferentes.

Pero, aunque Gato es innegablemente fascinante, durante la semana posterior a su lanzamiento, algunos investigadores se entusiasmaron demasiado.

Nando de Freitas, uno de los principales investigadores de DeepMind y coautor del artículo sobre Gato, no pudo contener su ilusión. “¡El juego ha terminado!” tuiteó, sugiriendo que el camino de Gato hacia la inteligencia artificial general (IAG, o AGI por sus siglas en inglés) ya era una realidad. Se trata de ese vago concepto de IA a nivel humano o sobrehumano. Este investigador afirmó que la forma de construir IAG era principalmente una cuestión de escala: crear modelos como Gato, más grandes y mejores.

Como era de esperar, la publicación de Freitas provocó una cobertura de prensa exagerada  en la que se afirmaba que DeepMind “estaba al límite” de alcanzar la inteligencia artificial a nivel humano. No es la primera vez que la exageración supera la realidad. Otros modelos de IA nuevos y fascinantes como el generador de texto GPT-3 y el de imágenes DALL-E de OpenAI, también habían provocado afirmaciones grandiosas. Para muchos en este campo, este tipo de discurso frenético eclipsa otras importantes áreas de investigación en IA.

Es una pena, porque es cierto que Gato es un paso interesante. Algunos modelos han empezado a mezclar diferentes habilidades: DALL-E, por ejemplo, genera imágenes a partir de descripciones de texto. Otros usan una única técnica de entrenamiento para aprender a reconocer imágenes y frases. AlphaZero de DeepMind aprendió a jugar al Go, el ajedrez y al juego japonés Shogi.

Pero la diferencia crucial es que AlphaZero solo podía aprender una tarea a la vez. Después de aprender a jugar al Go, tuvo que olvidarse de todo antes de aprender a jugar al ajedrez, y así sucesivamente. No podía aprender a jugar ambos juegos de manera simultánea. Pero Gato sí puede: aprende varias tareas diferentes al mismo tiempo, lo que significa que puede alternar entre ellas sin tener que olvidar una habilidad antes de aprender otra. Se trata de un pequeño avance pero bastante significativo.

Lo malo es que Gato no realiza las tareas tan bien como aquellos modelos que solo pueden hacer una cosa. Los robots aún tienen que aprender “sentido común” sobre cómo funciona el mundo a partir de texto, explica Jacob Andreas, profesor asistente en el MIT que se especializa en inteligencia artificial y procesamiento del lenguaje natural y del habla.

Esto podría ser útil para los robots que ayudan a personas en sus casas, por ejemplo. “Cuando ponemos a un robot en una cocina y le pedimos que prepare una taza de té por primera vez, ese robot ya sabe qué pasos se requieren para preparar el té y dónde es probable que se encuentren las bolsitas de té”, indica Andreas.

Sin embargo, algunos investigadores externos se han mostrado explícitamente contrarios a lo que publicó de Freitas. “Esto está lejos de ser ‘inteligente'”, señala Gary Marcus, investigador de IA, que ha criticado el aprendizaje profundo. La exageración en torno a Gato demuestra que el campo de la IA es blanco de una “cultura triunfalista” inútil, opina.

Los modelos de aprendizaje profundo que a menudo generan mayor ilusión sobre el potencial para alcanzar la inteligencia humana cometen errores que “si un humano cometiera, pensaríamos que esa persona no está bien”, indica Marcus.

“En este sentido, la naturaleza intenta decirnos algo, y es que esto realmente no funciona, pero el campo cree tanto en sus propios recortes de prensa que simplemente no puede verlo”, añade el experto.

Incluso los colegas De Freitas en DeepMind, Jackie Kay y Scott Reed, que trabajaron con él en Gato, fueron más cautos cuando les pregunté directamente su opinión. No respondieron cuando se les preguntó si Gato se dirigía hacia IAG. “En realidad, no creo que sea plausible hacer predicciones con este tipo de cosas. Trato de evitar eso. Es como predecir el mercado de valores”, resaltó Kay.

Reed respondió que la pregunta era difícil: “Creo que la mayoría de las personas que se dedican al aprendizaje automático evitarán responder y tendrán mucho cuidado. Es algo muy difícil de predecir, pero, ya sabe, con suerte llegaremos allí algún día”.

En cierto modo, el hecho de que DeepMind definiera Gato como un modelo “generalista” podría haberlo convertido en víctima de la expectativa exagerada del sector de la IA respecto a la IAG. Los sistemas de inteligencia artificial de hoy en día se denominan “limitados”, lo que significa que solo pueden realizar un conjunto específico y restringido de tareas, como generar texto.

Algunos tecnólogos, incluidos varios trabajadores de DeepMind, creen que algún día los seres humanos desarrollarán sistemas de inteligencia artificial “más amplios” que podrán funcionar tan bien o incluso mejor que la inteligencia humana. Aunque algunos se refieren a esto como inteligencia artificial general, otros aseguran que es algo como “creer en la magia”. Muchos investigadores destacados, como Yann LeCun, científico jefe de inteligencia artificial de Meta, cuestionan si eso sería posible.

Gato es un modelo “generalista” en el sentido que puede hacer muchas cosas diferentes al mismo tiempo. Pero eso es muy distinto a una IA “general” capaz de adaptarse de manera eficaz a nuevas tareas distintas a aquellas en las que el modelo fue entrenado, explica Andreas del MIT: “Todavía estamos bastante lejos de poder hacer eso”.

Crear modelos más grandes tampoco resolvería el problema de que los modelos no tienen “aprendizaje permanente”, lo que significaría que, si se les enseña algo una vez, entenderían todas las implicaciones y lo usarían para todas las demás decisiones que deberían tomar, señala el experto.

Sobre esta cuestión, Emmanuel Kahembwe, investigador de IA y de robótica (que además es miembro de la organización Black in AI cofundada por Timnit Gebru) argumenta  que la exageración en torno a las herramientas como Gato es perjudicial para el desarrollo general de la IA. “Hay muchos temas interesantes que se dejan de lado, que no cuentan con fondos suficientes, que merecen más atención, pero eso no es lo que les interesa a las grandes empresas tecnológicas y al grueso de los investigadores de dichas empresas”, opina Kahembwe.

Las empresas tecnológicas deberían dar un paso atrás y realizar un balance sobre por qué construyen lo que construyen, opina Vilas Dhar, presidente de la organización benéfica Fundación Patrick J. McGovern que financia proyectos de IA “para bien”.

“AGI tiene que ver con algo profundamente humano: la idea de que podemos llegar a ser más de lo que somos mediante la construcción herramientas que nos impulsen a la grandeza”, resalta Dhar. “Y eso es realmente bueno, salvo que también se trata de una distracción de los problemas reales a los que nos enfrentamos actualmente y que deberíamos intentar abordar mediante la IA”.

MIT