¿Algoritmo o humano? Esta IA predice quién tomará la mejor decisión

Los sistemas de inteligencia artificial y las personas colaboran bien juntos. Ahora, un nuevo modelo optimiza ese trabajo al pronosticar cuál de los dos actores realizará mejor una tarea, lo que podría ser útil para el reconocimiento de imágenes, la detección del discurso del odio y el diagnóstico médico.

Mark Schiefelbein / AP

El contexto: los estudios muestran que, cuando las personas y los sistemas de inteligencia artificial (IA) trabajan juntos, pueden superar a cualquiera de los dos actuando solos. Los sistemas de diagnóstico médico a menudo son revisados por médicos humanos, y los sistemas de moderación de contenido filtran lo que pueden antes de requerir asistencia humana. Pero los algoritmos rara vez están diseñados para optimizar esta transferencia de IA a humanos. Si lo fueran, el sistema de IA solo diferiría a su contraparte humana si la persona realmente pudiera tomar una mejor decisión.

La investigación: los investigadores del Laboratorio de Ciencias de la Computación e IA del MIT (CSAIL) han desarrollado un sistema de IA para realizar este tipo de optimización basado en las fortalezas y debilidades del colaborador humano. Utiliza dos modelos separados de aprendizaje automático; uno toma la decisión real, ya sea diagnosticar a un paciente o eliminar una publicación en las redes sociales, y uno predice si la IA o el ser humano son los mejores en la toma de decisiones.

El último modelo, que los investigadores llaman “el rechazador”, mejora iterativamente sus predicciones basadas en el historial de cada tomador de decisiones a lo largo del tiempo. También puede tener en cuenta factores más allá del rendimiento, incluidas las limitaciones de tiempo de una persona o el acceso de un médico a información confidencial del paciente que no está disponible para el sistema de IA.

Los resultados: los investigadores probaron el enfoque híbrido humano-IA en una variedad de escenarios, incluso para tareas de reconocimiento de imágenes y detección de discurso de odio. El sistema de inteligencia artificial fue capaz de adaptarse al comportamiento del experto y diferir de ellos cuando fue apropiado, permitiendo a los dos tomadores de decisiones alcanzar rápidamente un nivel combinado de precisión más alto que un enfoque híbrido humano-IA anterior.

Estudio de caso: si bien estos experimentos aún son relativamente simples, los investigadores creen que dicho enfoque podría eventualmente aplicarse a decisiones complejas en la atención médica y en otras áreas. Considere un sistema de IA que ayude a los médicos a recetar el antibiótico correcto. Si bien los antibióticos de amplio espectro son altamente efectivos, su uso excesivo puede provocar resistencia. Los antibióticos específicos, por otro lado, evitan ese problema, pero solo deben usarse si tienen una alta probabilidad de funcionar. Dada esta compensación, el sistema de IA podría aprender a adaptarse a varios médicos con diferentes sesgos en sus prescripciones y corregir la tendencia a prescribir por exceso o por defecto antibióticos de amplio espectro.

MIT