La próxima Alexa podría tener un cuerpo físico para no ser tan tonta
April 20, 2019 Noticias , TecnologíaEl responsable del asistente de voz de Amazon cree que los sistemas de inteligencia artificial deben tener la capacidad de ver y explorar el mundo para alcanzar una comprensión real sobre él. Su cárcel computacional limita su experiencia a la lingüística pura, una de las áreas más complejas.
“Alexa, ¿por qué no eres más inteligente?” Esa es la pregunta que científico jefe del grupo de Inteligencia Artificial (IA) de Alexa en Amazon, Rohit Prasad, se ha casi a diario. La pregunta refleja hasta qué punto ha avanzado realmente la IA y cuánto le queda por recorrer. Prasad habló sobre la tecnología de Alexa y sobre los límites intelectuales de los asistentes de IA en la reciente conferencia EmTech Digital de MIT Technology Review.
El alegre asistente virtual de Amazon ha sido todo un éxito. La compañía presentó a Alexa en 2014 como la interfaz femenina, siempre paciente e implacablemente alegre, para su altavoz inteligente Echo. Este dispositivo de mesa nos escucha desde cualquier lado de la habitación para responder a nuestras preguntas y órdenes en cualquier momento.
Más de 100 millones de productos Echo se han vendido desde entonces, un triunfo que obligó a Google y Apple a sacar a sus modelos competidores a toda prisa. Los asistentes virtuales ya están disponibles a través de cientos de dispositivos diferentes, incluidos televisores, coches, auriculares, monitores para bebés e incluso inodoros.
Esta popularidad puede dar testimonio de las mejoras que ha ido experimentando el software capaz de responder a solicitudes simples. Es cierto que los usuarios tienen poca paciencia con los ayudantes virtuales demasiado tontos. Pero si pasamos mucho tiempo con ellos veremos rápidamente que esta tecnología todavía tiene muchas deficiencias. Alexa se confunde fácilmente con preguntas encadenadas o con un simple “Umm”, y no puede mantener una conversación corriente porque no entiende la ambigüedad del lenguaje.
La razón por la que Alexa se confunde, según Prasad, es porque las palabras que usamos tienen más potencia y significado de lo que somos conscientes. Cada vez que le decimos algo a otra persona, esa persona debe usar su comprensión preexistente del mundo para crear el significado de lo que decimos. El experto señala: “El lenguaje es complicado y ambiguo por definición. El razonamiento y el contexto son necesarios”.
Alexa tiene algunas ventajas sobre un cerebro humano analógico, como el acceso a una vasta enciclopedia de datos útiles. Al consultarla, Alexa puede determinar si estamos hablando de una persona, de un lugar o de un producto. Sin embargo, esto es más un truco que un ejemplo de inteligencia real. Hay muchas situaciones en las que el significado de una frase seguirá siendo ambiguo.
Incluso ante una pregunta simple como “¿Cuál es la temperatura?”, Alexa necesita hacer un razonamiento. Podríamos estar preguntándole cómo está el tiempo afuera, o tal vez queremos la lectura del termostato o de un horno conectado a internet.
Prasad explicó que Alexa tiene estrategias para minimizar esas deficiencias: conoce nuestra ubicación y la hora, y puede acceder a todas las preguntas que ya le hemos hecho, así como a las consultas de otras personas en la misma ciudad. Si le pedimos que reproduzca una canción, por ejemplo, Alexa podría suponer que estamos buscando una versión actual de esa canción en vez de la original, si hay suficientes personas cercanas que estén escuchándola.
Pero este tipo de información contextual es la máxima capacidad de Alexa. Para poder entenderse, algunas frases requieren una comprensión mucho más profunda del mundo, lo que llamamos “el sentido común”.
Algunos investigadores ya están trabajando en mecanismos para que los ordenadores puedan construir y mantener sus propias fuentes de sentido común. Un número creciente de profesionales también cree que las máquinas no dominarán el lenguaje a menos que experimenten el mundo.
Esto podría significar que, algún día, Alexa vivirá dentro de algo parecido a un robot con ojos, extremidades y motricidad. “La única forma de que los asistentes inteligentes sean realmente inteligentes es poniéndoles ojos y dejándoles que exploren el mundo“, afirmó Prasad. Amazon ya ha creado versiones de Alexa con cámara incorporada. Otras compañías están desarrollando robots personales capaces de responder a las preguntas habladas. Y se rumorea que Amazon también está trabajando en algún tipo de robot doméstico.
Aunque Prasad no quiso dar más detalles, sus comentarios muestran el gran interés que Amazon tiene en la IA más allá de su asistente virtual. De hecho, si los asistentes de IA obtienen una presencia física podrían crear un ciclo virtuoso. Reunir diferentes capacidades (habla, visión y manipulación física) debería dar lugar programas de inteligencia artificial con mejores habilidades lingüísticas. También podría hacer que los robots sean bastante más inteligentes y útiles.
La pregunta, entonces, sería: “Alexa, ¿hasta dónde va a llegar tu inteligencia?”