¿Quiénes están detrás de Sierra?
Es significativo que dos de los líderes más visionarios de Silicon Valley estén creando una startup de IA no para perseguir el raro trofeo de la superinteligencia, sino para utilizar los recientes avances en IA para llevar al futuro a las corporaciones no tecnológicas. Su experiencia les sitúa a la altura de figuras más conocidas del sector: Taylor fue uno de los principales desarrolladores de Google Maps en los años ochenta y Bavor dirigió los esfuerzos de Google en el campo de la realidad virtual. No dudan en asegurarme que sus corazones siguen en modo ambicioso, apuntando lo alto y abstracto. Ambos creen que la IA conversacional es un avance equiparable a la interfaz gráfica de usuario o al smartphone, y que tendrá al menos el mismo impacto en nuestras vidas. Resulta que Sierra se centra en un aspecto específico y empresarial de esto. “En el futuro, el agente de IA de una empresa –básicamente, la versión de IA de esa empresa– será tan importante como su sitio web”, dice Taylor. “Va a cambiar por completo la forma en que las empresas existen digitalmente”.
¿Cómo funcionan los chatbots de Sierra?
Para construir sus bots de forma que cumplan esa tarea con eficacia, amabilidad y seguridad, Sierra tuvo que urdir algunas innovaciones que harán avanzar la tecnología de agentes de IA en general. Y para abordar el problema más preocupante –los “delirios” o “alucinaciones” propios de las IA que podrían dar a los clientes información errónea– Sierra utiliza varios modelos de IA diferentes a la vez, con un modelo que actúa como “supervisor” para asegurarse de que el agente de IA no se desvía hacia el territorio de la fantasía. Cuando está a punto de ocurrir algo con consecuencias reales, Sierra recurre a su enfoque de superioridad numérica y fuerza bruta. “Si chateas con el agente de WeightWatchers y escribes un mensaje, se invocan unos cuatro o cinco grandes modelos de lenguaje diferentes para decidir qué hacer”, dice Taylor.
Gracias a la potencia, el vasto conocimiento y la asombrosa comprensión de los potentes modelos de lenguaje IA de gran tamaño (LLM), estos agentes digitales pueden captar los valores y procedimientos de una empresa tan bien como un ser humano, y quizá incluso mejor que un trabajador descontento en una sala calurosa de Dakota del Norte. El proceso de formación se asemeja más a la incorporación de un empleado que a la introducción de reglas en un sistema. Y lo que es más, estos robots son lo suficientemente capaces como para que se les conceda cierta autonomía a la hora de atender las necesidades de la persona que llama. “Nos dimos cuenta de que muchos de nuestros clientes tenían una política, y luego tenían otra política detrás de la política, que es la que realmente importa”, dice Bavor. Los agentes de Sierra son lo bastante sofisticados como para saberlo, y también lo bastante listos como para no desvelar la verdad de inmediato y conceder a los clientes un trato especial solo si presionan. El objetivo de Sierra no es otro que conseguir que las interacciones automatizadas con los clientes pasen del infierno a la felicidad.
Esto era ambrosía para los oídos de uno de los primeros clientes de Sierra, WeightWatchers. Cuando Taylor y Bavor le dijeron a Sima Sistani, Directora Ejecutiva, que los agentes de IA podían ser auténticos y cercanos, se quedó intrigada. Pero lo decisivo, según me contó, fue cuando los cofundadores le dijeron que la IA conversacional podía lograr “empatía a escala”, y ahora WeightWatchers utiliza agentes creados por Sierra para sus interacciones con los clientes.
Ok, pero, ¿son empáticos?
El diccionario Merriam-Webster define la empatía como “la acción de comprender, ser consciente de, ser sensible a y experimentar indirectamente los sentimientos, pensamientos y experiencias de otro”. Le pregunté a Sistani si no sería una contradicción decir que un robot puede ser empático. Tras una pausa en la que casi pude oír los engranajes de su cerebro, balbuceó una respuesta. “Es interesante cuando lo planteas así, pero vivimos en mundos 2D. Los algoritmos nos ayudan a determinar la próxima conexión que vemos y la relación que establecemos. Como sociedad ya estamos más allá de eso”. Aquí, “eso” significa que la interacción con un robot no puede ser auténtica. Por supuesto, en la vida real es lo ideal, se apresura a decir, y los agentes son más un complemento para la vida real que un sustituto. Pero no abandona la idea de la empatía.
Cuando le pido ejemplos, Sistani me habla de una interacción en la que un miembro de WeightWatchers dijo que tenía que cancelar su afiliación por dificultades. La agente de IA la bombardeó y le dijo cosas como “siento mucho oír eso… Esas dificultades pueden ser tan difíciles… Déjame ayudarte a solucionarlo”, y luego, como un hada madrina, la agente la ayudó a explorar alternativas. “Tenemos muy claro que es un asistente virtual”, dice Sistani. “Pero si no lo hubiera sido, no creo que se notara la diferencia”.
Antes de seguir por este camino, tengo que dar un llamado de atención. Por muy auténticos o empáticos que sean los agentes de software, su trabajo se solapa con tareas que antes o ahora realizan seres humanos. Los trabajadores de carne y hueso cobran un sueldo, se van a casa después de sus turnos e incluso pueden sindicarse. Los agentes de IA no presentan ninguno de esos “inconvenientes”. Por eso las empresas utilizan constantemente sistemas de atención telefónica y sitios web para interactuar con los clientes, y por eso las corporaciones a menudo toman medidas extremas para dificultar la conexión con los seres humanos que siguen siendo necesarios para aquellos cuyos problemas no pueden resolverse con la elección de un menú, o que simplemente necesitan que se les responda a sus preguntas en lenguaje natural. Para algunas empresas, es más fácil descifrar algoritmos de encriptación que simplemente conectar con un humano. La historia es tan vieja como la tecnología.