“Hemos logrado que un robot replique la ilusión de la mano de goma por primera vez”

El científico Pablo Lanillos de la Universidad Tecnológica de Múnich (Alemania) quiere conseguir que las máquinas reconozcan su propio cuerpo como hacemos los humanos para crear versiones mejoradas de la inteligencia artificial. Ha presentado sus últimos avances en IROS 2018, el mayor evento mundial de robótica que se celebra esta semana en Madrid.

Pablo Lanillos investiga con humanoides en el Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Múnich (Alemania). / ICS-TUM

La ilusión de la mano de goma es un conocido experimento en el que se hace creer a los participantes que una extremidad de plástico es la suya propia. Se oculta un brazo, se sustituye por otro de pega y se estimulan los dos a la vez con un pincel o una pluma. Pasado poco tiempo, muchos voluntarios reaccionan cuando se golpea la mano falsa, a la que ya consideran parte de su cuerpo.

El doctor en inteligencia artificial Pablo Lanillos (Madrid, 1981) está realizando el mismo experimento con un humanoide del Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Múnich, en Alemania, donde ha conseguido replicar estas reacciones humanas en las máquinas. El proyecto, denominado Selfception, está financiado por la Unión Europea a través de una beca Marie Curie.

 ¿Cuál es el objetivo de este proyecto?

“Tratamos de que los robots puedan responder a una pregunta: ¿es este mi cuerpo?”

Tratamos de que los robots puedan responder a la pregunta: “¿Es este mi cuerpo?”. El objetivo de este proyecto de dos años –ahora estamos justo en la mitad– es conseguir que las máquinas aprendan a reconocer su propio cuerpo y distinguirlo de otros elementos que les rodean. Mediante algortimos de aprendizaje, intentamos que las máquinas entiendan la relación entre lo que perciben y las acciones que realizan.

¿Y por qué habéis elegido la ilusión de la mano de goma para investigar?

Este famoso test se utiliza para estudiar cómo los humanos procesamos la información sensorial. Con él se descubrió que la percepción de nuestro cuerpo es muy plástica y casi instantánea: en menos de un minuto te pueden hacer creer que una mano que no es tuya lo es. Esto lo aplicamos en un robot  –llamado TUMM– con capacidad de visión, tacto y de sentir su brazo a través de sensores. Como modelo teórico usamos el de Karl Friston, uno de los neurocientíficos que más ha influido en computación, y que asume que nuestro cerebro es una máquina bayesiana.

La investigadora pasa una pluma sobre el brazo falso colocado a un robot, mientras se oculta el auténtico, para simular el experimento de la ilusión de la mano de goma. / ICS-TUM

¿Habéis conseguido ya algún resultado?

Sí. Por primera vez hemos logrado replicar la ilusión de la mano de goma en robots, en concreto uno de sus efectos: el desplazamiento del esquema general del cuerpo, que se adapta a las nuevas sensaciones. En el experimento con humanos, cuando se les pregunta a los participantes dónde está su mano escondida, en lugar de indicar la posición real señalan una posición desplazada hacia la mano de plástico; y con TUMM ocurre lo mismo.

¿Cómo os informa el humanoide de lo que ‘siente’?

Por supuesto, al robot no le podemos preguntar si cree que su mano es suya o dónde la siente. Lo que hicimos es realizar un experimento con personas para ver cuánto se desplazaba porcentualmente el eje corporal si poníamos la mano de plástico a distintas distancias. Repetimos el ejercicio con el robot y comprobamos que los gráficos seguían un mismo patrón. De momento es un modelo simplificado, que iremos complicando con redes neuronales.

¿Esto es lo que has presentado esta semana en Madrid durante la feria de robótica IROS 2018?

Este estudio se ha publicado en el marco del congreso, pero además he participado en un workshop donde he explicado el algoritmo que utilizo para modelar la percepción del robot, un modelo matemático inspirado en el funcionamiento del cerebro. La parte más interdisciplinar del proyecto la presenté el mes pasado en el congreso ICDL-Epirob de Japón, donde están más acostumbrados a mezclar disciplinas distintas, como la robótica con la psicológica y la neurociencia. En última estancia lo que queremos es aprender del cerebro y del cuerpo para desarrollar una versión mejorada de la inteligencia artificial.

“Queremos implementar en los robots lo que llamamos el ‘yo’, un concepto un tanto abstracto”

¿Para aplicarlo en los futuros robots…?

Ahora disponemos de robots cilíndricos o industriales relativamente sencillos, pero los humanoides se enfrentan a dos problemas. Por un lado tienen que saber en todo momento dónde está su cuerpo. Esto de momento se soluciona con diseños perfectos, muy costosos, pero estas técnicas no funcionan en el momento que surge cualquier deficiencia de fabricación o que se use ‘músculos’ robóticos en lugar de los motores estándar.

Aquí es donde entra vuestra solución bioinspirada…

Sí. Hay gente que lo intenta solucionar desde la ingeniería pura, con algoritmos que no tienen nada que ver con la biología. Nosotros nos fijamos en cómo funcionan los humanos para desarrollar esa inteligencia artificial mejorada. Además, si conseguimos que el robot tenga una percepción que biológicamente tenga sentido, lo que encontremos se podría usar en psicología. Aunque esto es controvertido, considero que las ilusiones del cuerpo nos dan unas medidas objetivas que podemos usar para cuantificar lo reales que son los modelos.

¿Estos estudios nos pueden ayudar a conocernos a nosotros mismos?

El proyecto Selfception trata de implementar en los robots lo que llamamos el ‘yo’, un concepto un tanto abstracto. Mi hipótesis, basada en la de otras personas, es que existen unos patrones que no reflejan el conocido yo reflexivo (“pienso, luego existo”), sino que subyacen debajo ayudando a identificar el propio cuerpo de forma inconsciente. Se trata de un yo sensomotor, cuyo aprendizaje –además de sus aplicaciones en la aceptación de prótesis y el tratamiento de trastornos neurobiológicos donde interviene el ‘yo’, como la esquizofrenia y el autismo–  permitirá que algún día los humanoides puedan distinguir entre máquinas y humanos, algo esencial para que los dos se puedan relacionar de forma integral en el futuro.

Un científico español en Alemania

Tras doctorarse en la Facultad de Informática de la Universidad Complutense de Madrid y un periplo por instituciones de EE UU, Suiza, Australia y Portugal, desde hace dos años Pablo Lanillos investiga en la Universidad Tecnológica de Múnich, desde donde también ejerce como vicepresidente de la Asociación de Científicos Españoles en Alemania.

“La investigación aquí es muy potente, con inversiones tanto públicas como privadas, un aliciente muy atractivo para cualquier científico”, comenta Lanillos, “pero las cosas no son tan bonitas como se pintan en España: la integración en Alemania es complicada, principalmente por la barrera del idioma. No vale solo con el inglés”.

“También hay que tener en cuenta la enorme competitividad, sobre todo en el mundo académico –añade–.  He visto profesores con muchos años de antigüedad que se han tenido que cambiar por no conseguir la plaza, algo poco habitual en España. Al acabar el doctorado, aquí es fácil conseguir un puesto en una empresa alemana para investigar o trabajar en un ámbito más aplicado, pero es muy difícil quedarse en las universidades por esa competencia tan grande”.

Según el investigador, en general  sus colegas españoles están a gusto con la calidad de vida que tienen Alemania, pero a la mayoría no les importaría regresar a su país si les ofrecieran los mismos puestos, algo muy difícil, no solo por el puesto en sí, también por toda la infraestructura que se necesita alrededor.

“La gente está contenta aquí, pero piensan que si alguna vez se cambiaran sería a España, sobre todo los que tienen hijos”, dice Lanillo, que concluye: “Este año, con el cambio de gobierno, existe un halo de esperanza de que las cosas podrían mejorar. Veremos a ver”.

SINC