¿Estamos más cerca de que los robots ‘sientan’?
July 17, 2020 Noticias , TecnologíaDos investigadores de la Universidad Nacional de Singapur (NUS), y miembros de la Comunidad de Investigación Neuromórfica de Intel (INRC), han dado a conocer nuevos hallazgos que demuestran que estamos más cerca de que los robots puedan sentir.
¿Y cómo? Según los científicos, que los robots puedan sentir se logrará gracias a la visión adaptada al contexto y la detección táctil en combinación con el procesamiento neuromórfico de Intel. “El hecho de llevar el sentido del tacto a la robótica”, dicen en la compañía norteamericana, “puede mejorar significativamente las capacidades y la funcionalidad, en comparación con los sistemas actuales de sólo visión, y cómo los procesadores neuromórficos pueden superar las arquitecturas tradicionales en el procesamiento de esos datos sensoriales”.
Esta investigación de la NUS ofrece una visión convincente del futuro de la robótica, en la que la información se percibe y procesa de una manera impulsada por los acontecimientos, combinando múltiples modalidades. El trabajo se suma a un creciente conjunto de resultados que muestran que la computación neuromórfica puede proporcionar mejoras significativas en la latencia y el consumo de energía una vez que todo el sistema sea rediseñado en un paradigma adaptado al contexto que abarque sensores, formatos de datos, algoritmos y arquitectura de hardware.
Por qué es importante esta investigación
El sentido del tacto es lo suficientemente sensible como para apreciar la diferencia entre superficies que difieren por una sola capa de moléculas. Sin embargo, la mayoría de los robots de hoy en día operan únicamente en el procesamiento visual. Los investigadores de la NUS esperan cambiar esto usando la piel artificial que han desarrollado recientemente. Según sus investigaciones, se puede detectar el tacto más de 1.000 veces más rápido que el sistema nervioso sensorial humano e identificar la forma, textura y dureza de los objetos 10 veces más rápido que el parpadeo de un ojo.
En este sentido, permitir un sentido del tacto similar al de los humanos en la robótica podría mejorar significativamente la funcionalidad actual e incluso conducir a nuevos casos de uso. Por ejemplo, los brazos robóticos dotados de piel artificial podrían adaptarse fácilmente a los cambios en los productos fabricados en una fábrica, utilizando la detección táctil para identificar y agarrar objetos desconocidos con la cantidad adecuada de presión para evitar el deslizamiento. Asimismo, la capacidad de sentir y percibir mejor el entorno también podría permitir una interacción humano-robótica más estrecha y segura, o acercarnos a la automatización de las tareas quirúrgicas dando a los robots quirúrgicos el sentido del tacto del que carecen hoy en día.
La necesidad del chip neuromórfico
Si bien la creación de la piel artificial es un paso para dar vida a esta visión, también requiere un chip que pueda sacar conclusiones precisas basadas en los datos sensoriales de la piel en tiempo real, mientras opera a un nivel de potencia lo suficientemente eficiente como para ser desplegado directamente dentro del robot. “La creación de un sensor de piel artificial ultrarrápido resuelve aproximadamente la mitad del rompecabezas de hacer a los robots más inteligentes”, afirma Benjamin Tee, profesor adjunto del Departamento de Ciencia e Ingeniería de Materiales de la NUS y del Instituto de Innovación y Tecnología de la Salud de la NUS. “También necesitan un cerebro artificial que pueda finalmente lograr la percepción y el aprendizaje como otra pieza crítica del rompecabezas. Nuestra demostración de un sistema de piel de inteligencia artificial con chips neuromórficos como el Intel Loihi supone un gran avance hacia la eficiencia energética y la escalabilidad”.
Este novedoso sistema robótico desarrollado por investigadores de la Universidad Nacional de Singapur comprende un sistema de cerebro artificial que imita las redes neuronales biológicas, que puede funcionar con un procesador neuromórfico de bajo consumo como el chip Loihi de Intel, y que está integrado con sensores artificiales de piel y visión.
Sobre la investigación
Para abrir nuevos caminos en la percepción robótica, el equipo de la NUS comenzó a explorar el potencial de la tecnología neuromórfica para procesar datos sensoriales de la piel artificial usando el chip de investigación neuromórfica Loihi de Intel. En su experimento inicial, los investigadores utilizaron una mano robótica equipada con la piel artificial para leer Braille, pasando los datos táctiles a Loihi, a través de la nube, para convertir los micro baches que la mano sentía en un significado semántico. De este modo, Loihi logró una precisión de más del 92 % en la clasificación de las letras del Braille, al tiempo que utilizaba 20 veces menos energía que un procesador estándar.
Basándose en este trabajo, el equipo de la NUS mejoró aún más las capacidades de percepción robótica combinando datos de visión y de tacto en la red neuronal de spiking. Para ello, encargaron a un robot que clasificara varios contenedores opacos que contenían diferentes cantidades de líquido, utilizando los datos sensoriales de la piel artificial y una cámara adaptada al contexto. De este modo, los investigadores utilizaron los mismos sensores táctiles y de visión para probar la capacidad del sistema de percepción para identificar el deslizamiento rotacional, que es importante para conseguir un agarre estable.
Los resultados
Una vez que estos datos sensoriales fueron recogidos, el equipo los envió a una GPU y al chip de investigación neuromórfica Loihi de Intel para comparar las capacidades de procesamiento. Los resultados, que fueron presentados en el congreso ‘Robotics: Science and Systems’ esta semana, muestran que la combinación de la visión adaptada al contexto y el tacto utilizando una red neuronal de picos permitió un 10 % más de precisión en la clasificación de objetos en comparación con un sistema de sólo visión. Además, demostraron el compromiso de la tecnología neuromórfica para alimentar tales dispositivos robóticos, y con Loihi lograron procesar los datos sensoriales un 21 % más rápido que una GPU de alto rendimiento, mientras que utilizaban 45 veces menos energía.