La inteligencia artificial nos ayuda a tomar decisiones difíciles, pero tendemos a permitir (y preferir) que decida por nosotros

Una de las funciones que le estamos dando a la inteligencia artificial es la de asesorar a humanos responsables de tomar decisiones críticas, como “¿cuál es la pena adecuada que debemos imponer a este reo?” o “¿qué medicamento hay que recetarle a este paciente?”. La idea es que, como la IA a veces es capaz de ver cosas que nosotros no vemos, sus sugerencias nos ayudarán a elegir más sabiamente.

geralt / pixabay

Pero esa es únicamente la teoría: en la práctica, los responsables de tomar esas decisiones, bien sea por sufrir excesiva carga de trabajo, bien por tener una excesiva fe en las máquinas, tienden en demasiados casos a dar por buenos los consejos de los algoritmos y a actuar siguiendo la misma a pies juntillas.

Esto es lo que suele denominarse ‘sesgo de automatización’: la falta de escepticismo ante la información que nos proporcionan los algoritmos. Paradójicamente, aquí somos nosotros, y no las máquinas, quienes pecamos de actuar de forma automática. Y como todos los sesgos, tendemos a negarlos.

Si lo dice la IA, ¿será por algo?

Los primeros estudios sobre el sesgo de automatización se centraron en los sistemas de navegación de los aviones: un estudio publicado hace ya casi una década, recogía que los pilotos tendían a afirmar que no confiarían en un sistema automatizado que les informase de un incendio en el motor a menos que contaran con evidencias complementarias que lo corroboraran; sin embargo, una vez inmersos en las simulaciones, optaron por dar por bueno, de manera acrítica, el aviso de incendio.

Y esto es un problema. En primer lugar, porque sabemos que la información ofrecida por una inteligencia artificial puede fallar, bien por haber sido ‘hackeada’, bien por haber sido entrenada con datos erróneos o sesgados. Y sin embargo, la desinformación de los usuarios y el excesivo marketing que se ha ido construyendo en torno a esta tecnología la dotan de un injustificado halo de precisión.

Ryan Kennedy, profesor de la Universidad de Houston especialista en automatización, explica que “cuando la gente tiene que tomar decisiones en plazos relativamente cortos, con poca información… ahí es cuando tiende a confiar en cualquier consejo que les proporcione un algoritmo”.

Según Axios, un estudio de publicación inminente elaborado por Matthew Lungren, del Centro de IA Medicinal de la Univ. de Stanford, ha detectado que los médicos vinculados a su universidad siguen los consejos de una IA “en algunos casos, aunque esté claro que son erróneos”.

Según Lungren, la solución recaería en proporcionar información sobre el nivel de fiabilidad de cada algoritmo, para que así los humanos responsables de la toma de decisiones pudieran poner en contexto los consejos que reciben.

Xataka