El pequeño androide con sentido del tacto

Un rasgo típico de los mamíferos es su capacidad de experimentar sensaciones, algo que los robots están empezando a imitar. Con la ayuda de pieles artificiales y algoritmos, investigadores checos han conseguido que el niño-robot iCub sea consciente del contacto de un humano y que incluso note si alguien invade su espacio ‘vital’.

El investigador Matej Hoffmann, con los robots humanoides iCub y Nao (en brazos). / Duilio Farina, Instituto Italiano de Tecnología.

Con su poco más de un metro de altura, el robot iCub tiene las proporciones de un niño de cuatro años. En lugar de articulaciones cuenta con 53 motores eléctricos, dos cámaras que hacen de ojos, dos micrófonos para oír y algo similar al sentido del tacto, gracias a 4.000 sensores sensibles a la presión.

“Puede experimentar el mundo de forma parecida a un niño y tiene el potencial de desarrollar un tipo de cognición similar”, explica Matej Hoffmann, investigador principal del proyecto checo Robot Body Schema.

Su equipo es uno de los muchos que están utilizando este robot humanoide con código abierto diseñado por el Instituto Italiano de Tecnología. En su caso, lo eligieron por sus proporciones similares a las de un niño y por su piel electrónica.

Disciplinas tan diferentes como la filosofía, la psicología, la lingüística, la neurociencia, la inteligencia artificial y la robótica llevan décadas estudiando la cognición, esa facultad que procesa la información y que engloba habilidades como el aprendizaje, el razonamiento, la atención y los sentimientos.

“Puede experimentar el mundo de forma parecida a un niño y tiene el potencial de desarrollar un tipo de cognición similar”, afirma Hoffmann

Mientras que la psicología y la neurociencia prefieren los estudios en personas, la inteligencia artificial se inclina por modelos de ordenador, al interpretar esa facultad como un mero procesamiento de información.

“La cognición es inseparable del cuerpo físico y de sus sistemas sensoriales y motores, por lo que los modelos computacionales no son suficientes”, puntualiza Hoffmann, que dirige el grupo Humanoide y Robótica Cognitiva de la Universidad Técnica Checa en Praga.

La ventaja de la robótica y sus androides para estudiar estos procesos es que contemplan el contacto con el entorno. Además, en ellos se pueden simular cambios o lesiones imposibles de practicar en modelos humanos.

Una piel artificial para sentir

El mejor ejemplo de contacto es cuando una persona toca a otra. ¿Puede un robot notar esa sensación e identificar en qué parte del cuerpo se ha producido? Es precisamente lo que han conseguido Hoffmann y su equipo.

Gracias a los miles de sensores que configuran la piel artificial del humanoide y al desarrollo de un nuevo algoritmo, el ingeniero y estudiante de doctorado Zdenek Straka ha logrado que el robot desarrolle y aprenda un mapa de la superficie de su piel –denominado homúnculo–, similar al generado por el cerebro humano y el de otros primates.

Representación del homúnculo somasensorial -el mapa de la superficie de la piel- en mono y robot. / Zdenek Straka, Michal Vavrecka y Matej Hoffmann

“El toque en el cuerpo del robot se transmite a una región particular de este mapa. Dependerá entonces del androide averiguar cómo interpretar o usar esa información”, indica Hoffmann. El algoritmo también se adapta a los cambios corporales. Si una parte de la piel deja de sentir, el ‘cerebro’ del robot reasigna esa zona a otras partes del cuerpo.

Han logrado que el robot desarrolle y aprenda un mapa de la superficie de su piel similar al generado por el cerebro humano y el de otros primates

“El tacto es un sentido algo subestimado, pero en realidad es extremadamente importante”, recalca Hoffmann. Gracias al tacto somos conscientes de toda la superficie del cuerpo, lo que nos permite percibir diferentes tipos de contacto, desde una caricia hasta una colisión. Según los expertos, dotar a los robots de este sentido mejorará su futuro contacto con los humanos.

Los robots también necesitan su espacio

Volviendo a las personas, hay a quien le incomoda el exceso de contacto o una cercanía excesiva de su interlocutor, pues su espacio vital –el peripersonal– está siendo invadido. Hoffman y su equipo están tratando de que los androides aprecien este espacio.

“Es muy importante para la interacción segura entre robots y humanos, sobre todo en el contexto de aquellos colaborativos que abandonan las zonas de seguridad y comparten el espacio vital con los humanos”, destaca el experto.

El robot humanoide iCub aprende a reconocer su espacio peripersonal. / Alessandro Roncone y Matej Hoffmann

Como primer paso, Hoffmann y Straka han desarrollado un modelo computacional basado en una arquitectura de red neuronal dentro de un escenario en dos dimensiones, donde los objetos se aproximan a una superficie que simula la piel.

En estos momentos, el investigador, junto con sus estudiantes Zdenek Straka y Petr Švarný, están aplicando el modelo en humanoides. “Los robots deben ser capaces de anticipar contactos cuando algo penetra en el límite de su zona de seguridad”, afirma Hoffmann.

Las sensaciones de un bebé

Aunque fundamentalmente trabajan con androides, los investigadores también han estudiado sensaciones que experimentan los humanos, en concreto, bebés de entre tres y veintiún meses. Con la ayuda de psicólogos, colocaron un aparato que vibraba en diferentes partes del cuerpo y la cara del bebé y analizaron cómo respondían a estos estímulos.

Los investigadores también han estudiado las sensaciones de los bebés, que no nacen con un mapa de sus cuerpos

La principal conclusión es que los párvulos no nacen con un mapa o un modelo de sus propios cuerpos. Por eso, su primer año de vida es decisivo para que los puedan explorar y aprendan los patrones que luego repetirán, “como cuando tienen que rascarse en un lugar concreto”, señala el ingeniero.

Esta y las anteriores investigaciones se enmarcan en el proyecto Robot Body Schema, cuyo objetivo final es estudiar los mecanismos que utiliza el cerebro para representar el cuerpo humano.

Analizar la mente desde el prisma de la robótica conlleva un efecto tan fascinante como poco explorado: la humanización de las máquinas. “Aplicamos algoritmos inspirados en el cerebro para conseguir que los robots sean más autónomos y seguros”, concluye Hoffmann.

Tanto los bebés como los robots se reconocen en el espejo. / Pablo Lanillos

RobotBodySchema es uno de los Partnering Projects del Proyecto Cerebro Humano, una de las Iniciativas de Investigación Emblemáticas de las Tecnologías Futuras y Emergentes (FET Flagships en inglés) de Horizonte 2020 –el programa marco de financiación de la investigación de la Unión Europea–.

La agencia Sinc participa en el proyecto europeo SCOPE, coordinado por FECYT y financiado por la Unión Europea a través de Horizon 2020. Los objetivos de SCOPE son comunicar resultados visionarios de la investigación de proyectos asociados al Graphene Flagship y el Human Brain Project, así como promover y reforzar las relaciones en la comunidad científica de las Iniciativas de Investigación Emblemáticas de las Tecnologías Futuras y Emergentes (FET Flagships) en la UE.

SINC