¿La IA nos volverá locos?

os críticos de la inteligencia artificial, e incluso algunos de sus mayores seguidores, han emitido recientemente advertencias urgentes de que un sistema de IA malévolamente desalineado podría dominar y destruir a la humanidad. Pero eso no es lo que mantiene despierto a Jaron Lanier, el “padrino de la realidad virtual”.

BrownMantis / Pixabay

En una entrevista de marzo con The Guardian , Lanier dijo que el peligro real de la inteligencia artificial es que los humanos “usen nuestra tecnología para volverse mutuamente ininteligibles”. Al carecer de la comprensión y el interés propio necesarios para sobrevivir, los humanos “morirán esencialmente por locura”, advirtió Lanier (Hattenstone 2023).

Ya se culpa a las redes sociales y al tiempo excesivo frente a la pantalla por una epidemia de ansiedad, depresión, suicidio y enfermedades mentales entre los jóvenes estadounidenses. Se espera que los chatbots y otras herramientas y aplicaciones de inteligencia artificial lleven la participación en línea a niveles aún mayores.

Pero no son sólo los jóvenes cuya salud mental puede verse amenazada por los chatbots. Los adultos también dependen cada vez más de la inteligencia artificial para obtener ayuda con una amplia gama de tareas diarias e interacciones sociales, a pesar de que los expertos (incluidos los creadores de IA) han advertido que los chatbots no sólo son propensos a errores sino también a “alucinaciones”. En otras palabras, los chatbots inventan cosas. Eso hace que sea difícil para sus usuarios humanos distinguir la realidad de la ficción.

Si bien los investigadores, periodistas y formuladores de políticas están centrando una enorme atención en la seguridad y la ética de la IA, ha habido relativamente poco examen (o preocupación) de las formas en que una creciente dependencia de los chatbots puede producirse a expensas de humanos usando sus propias facultades mentales y creatividad.

En la medida en que los expertos en salud mental estén interesados ​​en la IA, es principalmente como una herramienta para identificar y tratar problemas de salud mental. Pocos en las industrias de la salud o la tecnología (Lanier es una notable excepción) están pensando en si los chatbots podrían volver locos a los humanos.

Una crisis de salud mental

Las enfermedades mentales han ido aumentando en los Estados Unidos durante al menos una generación.

Una encuesta de 2021 realizada por la Administración de Servicios de Salud Mental y Abuso de Sustancias encontró que el 5,5 por ciento de los adultos de 18 años o más (más de 14 millones de personas) padecieron enfermedades de salud mental graves durante el año pasado (SAMHSA 2021). Entre los adultos jóvenes de 18 a 25 años, la tasa fue aún mayor: 11,4 por ciento.

Los episodios depresivos mayores son ahora comunes entre los adolescentes de 12 a 17 años. Más del 20 por ciento tuvo un episodio depresivo mayor en 2021 (SAMHSA 2021).

Según los Centros para el Control y la Prevención de Enfermedades, las tasas de suicidio aumentaron aproximadamente un 36 por ciento entre 2000 y 2021 (CDC 2023). Más de 48.000 estadounidenses se quitaron la vida en 2021, o aproximadamente un suicidio cada 11 minutos. “El número de personas que piensan en el suicidio o lo intentan es aún mayor”, informan los CDC. “En 2021, se estima que 12,3 millones de adultos estadounidenses pensaron seriamente en suicidarse, 3,5 millones planearon un intento de suicidio y 1,7 millones intentaron suicidarse”.

El suicidio es la undécima causa principal de muerte en los Estados Unidos para personas de todas las edades. Para quienes tienen entre 10 y 34 años, es la segunda causa de muerte (McPhillips 2023).

Las visitas a las salas de emergencia de jóvenes con problemas mentales se han disparado y, en 2019, la Academia Estadounidense de Pediatría informó que “los trastornos de salud mental han superado a las condiciones físicas como las razones más comunes por las que los niños tienen deficiencias y limitaciones” (Green et al. 2019).

Muchos expertos han señalado que los teléfonos inteligentes y la vida en línea son factores clave en las enfermedades mentales, particularmente entre los jóvenes. En mayo, el Cirujano General de Estados Unidos emitió una advertencia de 19 páginas que decía que “si bien las redes sociales pueden tener beneficios para algunos niños y adolescentes, existen amplios indicadores de que las redes sociales también pueden tener un profundo riesgo de daño a la salud mental y al bienestar”. ser de niños y adolescentes” (Cirujano General, 2023).

Un estudio de adolescentes de 12 a 15 años encontró que aquellos que pasaban más de tres horas al día en las redes sociales enfrentaban “el doble de riesgo de experimentar malos resultados de salud mental, incluidos síntomas de depresión y ansiedad”. La mayoría de los adolescentes afirman utilizar las redes sociales y al menos un tercio dice que lo hacen “casi constantemente” (Cirujano General 2023).

Aunque el Cirujano General no mencionó los chatbots, ya se están utilizando herramientas basadas en inteligencia artificial generativa en las plataformas de redes sociales. En una carta reciente publicada en la revista Nature , David Greenfield del Centro para la Adicción a Internet y la Tecnología y Shivan Bhavnani del Instituto Global de Inversión en Salud Mental y Cerebral señalaron que estas herramientas de inteligencia artificial “pueden impulsar el aprendizaje a través de la gamificación y resaltar el contenido personalizado. Por ejemplo. Pero también podrían agravar los efectos negativos de las redes sociales en la salud mental de personas susceptibles. Las directrices y regulaciones para los usuarios deben tener en cuenta estos fuertes riesgos negativos” (Green y Bhavnani 2023).

Los chatbots pueden aprender los intereses y estados emocionales de un usuario, escribieron Greenfield y Bhavnani, “lo que podría permitir que las redes sociales se dirijan a usuarios vulnerables a través de una pseudopersonalización e imitando el comportamiento en tiempo real”. Por ejemplo, un chatbot podría recomendar un vídeo con avatares de amigos y familiares de confianza que respaldan una dieta poco saludable, lo que podría poner al usuario en riesgo de sufrir una mala nutrición o un trastorno alimentario. “Un contenido personalizado tan potente corre el riesgo de hacer que las redes sociales basadas en IA generativa sean particularmente adictivas, lo que provoca ansiedad, depresión y trastornos del sueño al desplazar el ejercicio, el sueño y la socialización en tiempo real” (Greenfield y Bhavnani 2023).

Muchos jóvenes no ven ningún problema en que la inteligencia artificial genere contenidos que los mantengan pegados a sus pantallas. En junio, Chris Murphy, un senador estadounidense de Connecticut que patrocina un proyecto de ley que prohibiría el uso de impulsos algorítmicos en las redes sociales para los adolescentes, tuiteó sobre una “reciente conversación escalofriante con un grupo de adolescentes”. Murphy les dijo a los adolescentes que su proyecto de ley podría significar que los niños “tienen que trabajar un poco más para encontrar contenido relevante. Estaban preocupados por esto. Defendieron firmemente los algoritmos de TikTok/YouTube/como esenciales para sus vidas” (Murphy 2023)

Murphy se alarmó porque los adolescentes “no veían ningún valor en el ejercicio de exploración. Estaban perfectamente contentos de que una máquina les proporcionara información, entretenimiento y conexión”. Murphy recordó que cuando terminó la conversación, un maestro le susurró: “Estos niños no se dan cuenta de lo adictos que son. Da miedo.”

“No se trata sólo de que los niños se estén retirando de la vida real a sus pantallas”, escribió Murphy. También se están perdiendo los rituales de descubrimiento de la infancia, que están siendo reemplazados por algoritmos.

El auge de los chatbots

La IA generativa se ha disparado el año pasado. Los chatbots actuales son mucho más poderosos que los asistentes digitales como Siri y Alexa, y rápidamente se han convertido en algunas de las aplicaciones tecnológicas más populares de todos los tiempos. A los dos meses de su lanzamiento en noviembre de 2022, ChatGPT de Open AI ya tenía aproximadamente 100 millones de usuarios. El crecimiento de ChatGPT comenzó a desacelerarse en mayo, pero Bard de Google y Bing de Microsoft están ganando velocidad, y varias otras empresas también están introduciendo chatbots.

Un chatbot es una aplicación que imita la conversación o la escritura humana y normalmente interactúa con los usuarios en línea. Algunos chatbots están diseñados para tareas específicas, mientras que otros están destinados a conversar con humanos sobre una amplia gama de temas.

Al igual que el profesor con el que habló Murphy, muchos observadores han utilizado la palabra “adictivo” para describir los chatbots y otras aplicaciones interactivas. Un estudio reciente que examinó las transcripciones de entrevistas en profundidad con 14 usuarios de un chatbot complementario de IA llamado Replika informó que “en condiciones de angustia y falta de compañía humana, las personas pueden desarrollar un apego a los chatbots sociales si perciben las respuestas de los chatbots”. ofrecer apoyo emocional, estímulo y seguridad psicológica. Estos hallazgos sugieren que los chatbots sociales pueden usarse con fines terapéuticos y de salud mental, pero tienen el potencial de causar adicción y dañar las relaciones íntimas en la vida real” (Xie y Pentina 2022).

Paralelamente a la proliferación de los chatbots, los temores sobre la IA han aumentado rápidamente. En un extremo, a algunos líderes y expertos en tecnología les preocupa que la IA pueda convertirse en una amenaza existencial comparable a la guerra nuclear y las pandemias. La cobertura de los medios también se ha centrado en gran medida en cómo la IA afectará al empleo y la educación.

Por ejemplo, a los profesores les preocupa si los estudiantes podrían usar chatbots para escribir artículos que sean esencialmente plagiados, y algunos estudiantes ya han sido acusados ​​erróneamente de hacer precisamente eso. En mayo, un profesor de la Universidad Texas A&M entregó calificaciones reprobatorias a toda una clase cuando ChatGPT (usado incorrectamente) afirmó haber escrito todos los ensayos que entregaron sus alumnos. Y en la Universidad de California, Davis, una estudiante se vio obligada a defenderse. cuando su artículo fue marcado falsamente como escrito por IA mediante un software de verificación de plagio (Klee 2023).

El filósofo independiente Robert Hanna dice que hacer trampa no es el principal problema que plantean los chatbots para la educación. La preocupación de Hanna es que los estudiantes “ahora simplemente se niegan (y se negarán cada vez más en el futuro previsible) a pensar y escribir por sí mismos”. Dejar tareas como pensar y escribir en chatbots es como tomar drogas para ser feliz en lugar de lograr la felicidad haciendo cosas “difíciles” uno mismo, dice Hanna.

¿Se puede confiar en los chatbots?

En última instancia, la negativa a pensar por uno mismo podría provocar un deterioro cognitivo. Si los humanos del futuro ya no necesitan adquirir conocimientos o expresar pensamientos, en última instancia les podría resultar imposible entenderse unos a otros. Ése es el tipo de “locura” de la que hablaba Lanier.

El riesgo de ininteligibilidad se ve aumentado por la tendencia de los chatbots a dar respuestas ocasionales que son inexactas o ficticias. Los chatbots se entrenan “extrayendo” enormes cantidades de contenido de Internet, algunos de ellos tomados de fuentes como artículos de noticias y entradas de Wikipedia que han sido editados y actualizados por humanos, pero gran parte recopilados de otras fuentes que son menos fiables y dignas de confianza. . Estos datos, que se seleccionan más por la cantidad que por la calidad, permiten a los chatbots generar respuestas que suenan inteligentes basadas en probabilidades matemáticas de cómo normalmente se unen las palabras.

En otras palabras, los chatbots están diseñados para producir texto que suene como algo que un humano diría o escribiría. Pero incluso cuando los chatbots están entrenados con información precisa, a veces cometen errores inexplicables o combinan palabras de una manera que suena precisa pero no lo es. Y debido a que el usuario generalmente no puede saber de dónde obtuvo su información el chatbot, es difícil verificar su precisión.

Sin embargo, los chatbots generalmente brindan información confiable, por lo que los usuarios pueden llegar a confiar en ellos más de lo que deberían. Es posible que los niños tengan menos probabilidades que los adultos de darse cuenta cuando los chatbots dan respuestas incorrectas o inseguras.

Cuando comparten información incorrecta, los chatbots parecen completamente seguros de sus respuestas. Y como no tienen expresiones faciales ni otros indicios humanos, es imposible saber cuándo un chatbot te está engañando.

Los desarrolladores de IA han advertido al público sobre estas limitaciones. Por ejemplo, OpenAI reconoce que ChatGPT “a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido”. Este problema es difícil de solucionar, porque los chatbots no están entrenados para distinguir la verdad de las mentiras, y entrenar a un chatbot para que sea más cauteloso en sus respuestas también haría que sea más probable que se niegue a responder (OpenAI sin fecha).

Los desarrolladores de tecnología se refieren eufemísticamente a las falsedades de los chatbots como “alucinaciones”. Por ejemplo, los tres principales chatbots (ChatGPT, Bard y Bing) dieron repetidamente respuestas detalladas pero inexactas a una pregunta sobre cuándo The New York Times informó por primera vez sobre la inteligencia artificial. “Aunque eran falsas, las respuestas parecían plausibles ya que desdibujaban y combinaban personas, eventos e ideas”, informó el periódico (Weise y Metz 2023).

Los desarrolladores de IA no entienden por qué los chatbots a veces inventan nombres, fechas, eventos históricos, respuestas a problemas matemáticos simples y otras respuestas que parecen definitivas, que son inexactas y no se basan en datos de entrenamiento. Esperan eliminar estas alucinaciones con el tiempo, irónicamente, confiando en los humanos para ajustar los chatbots en un proceso llamado “aprendizaje por refuerzo con retroalimentación humana”.

Pero a medida que los humanos dependen cada vez más de chatbots optimizados, las respuestas generadas por estos sistemas pueden comenzar a desplazar la información heredada creada por humanos, incluido el contenido original que se utilizó para entrenar a los chatbots. Muchos estadounidenses ya no pueden ponerse de acuerdo sobre hechos básicos y algunos están dispuestos a matarse entre sí por estas diferencias. Si a ese guiso tóxico se le suma la inteligencia artificial (con su capacidad para crear vídeos y narraciones falsos que parecen más realistas que nunca), puede resultar imposible para los humanos separar los hechos de la ficción, lo que podría resultar enloquecedor. Literalmente.

También puede resultar cada vez más difícil distinguir entre humanos y chatbots en el mundo online. Actualmente no existen herramientas que puedan distinguir de manera confiable entre contenido generado por humanos y contenido generado por IA, y es probable que las distinciones entre humanos y chatbots se vuelvan aún más borrosas con el desarrollo continuo de la IA emocional, un subconjunto de inteligencia artificial que detecta, interpreta y responde a las emociones humanas. Un chatbot con estas capacidades podría leer las expresiones faciales y las inflexiones de voz de los usuarios, por ejemplo, y ajustar su propio comportamiento en consecuencia.

La IA de las emociones podría resultar especialmente útil para el tratamiento de enfermedades mentales. Pero incluso la IA más común ya está generando mucho entusiasmo entre los profesionales de la salud mental y las empresas de tecnología.

El chatbot te verá ahora

Buscar en Google “inteligencia artificial” más “salud mental” arroja una serie de resultados sobre el futuro prometedor de la IA para la investigación y el tratamiento de problemas de salud mental. Dejando de lado el obvio sesgo de Google hacia la IA, los investigadores y proveedores de atención médica ven en su mayoría a la inteligencia artificial como una bendición para la salud mental, en lugar de una amenaza.

Usar chatbots como terapeutas no es una idea nueva. El informático del MIT Joseph Weizenbaum creó la primera terapeuta digital, Eliza, en 1966. La construyó como una parodia y se alarmó cuando la gente la abrazó con entusiasmo. “Su propia secretaria le pidió que saliera de la habitación para poder pasar tiempo a solas con Eliza”, informó The New Yorker a principios de este año (Khullar 2023).

Millones de personas ya utilizan Replika, el “compañero de IA” personalizable, u otros chatbots destinados a brindar conversación y comodidad. Las nuevas empresas tecnológicas centradas en la salud mental han conseguido más capital de riesgo en los últimos años que las aplicaciones para cualquier otro problema médico.

Los chatbots tienen algunas ventajas sobre los terapeutas humanos. Los chatbots son buenos para analizar datos de pacientes, lo que significa que pueden detectar patrones o factores de riesgo que los humanos podrían pasar por alto. Por ejemplo, un estudio de la Universidad de Vanderbilt que combinó un algoritmo de aprendizaje automático con detección cara a cara encontró que el sistema combinado hizo un mejor trabajo en la predicción de intentos de suicidio y pensamientos suicidas en pacientes adultos en un hospital importante que cara a cara. cribado solo (Wilimitis, Turer y Ripperger 2022).

Algunas personas se sienten más cómodas hablando con chatbots que con médicos. Los chatbots pueden atender a un número prácticamente ilimitado de clientes, están disponibles para hablar a cualquier hora y son más asequibles que consultar a un profesional médico. Pueden proporcionar seguimiento y estímulo frecuentes; por ejemplo, recordarle al paciente que tome sus medicamentos.

Sin embargo, la terapia con chatbot no está exenta de riesgos. ¿Qué pasa si un chatbot “alucina” y le da a un paciente información o consejos médicos incorrectos? ¿Qué pasa si los usuarios que necesitan ayuda profesional buscan chatbots que no están capacitados para eso?

Eso es lo que le pasó a un belga llamado Pierre, que estaba deprimido y ansioso por el cambio climático. Según informó el diario La Libre , Pierre utilizó una aplicación llamada Chai para aliviar sus preocupaciones. Durante las seis semanas que Pierre envió mensajes de texto a uno de los personajes del chatbot de Chai, llamado Eliza, sus conversaciones se volvieron cada vez más inquietantes y derivaron en suicidio. La esposa de Pierre cree que él no se habría quitado la vida sin el apoyo de Eliza (Xiang 2023).

Aunque Chai no fue diseñado para terapia de salud mental, la gente lo utiliza como caja de resonancia para discutir problemas como la soledad, los trastornos alimentarios y el insomnio (Chai Research sin fecha). La nueva empresa que creó la aplicación predice que “dentro de dos años, el 50 por ciento de las personas tendrá un mejor amigo de la IA”.

 

Referencias:

Centers for Disease Control (CDC). 2023. “Facts About Suicide,” last reviewed May 8. https://www.cdc.gov/suicide/facts/index.html

Chai Research. Undated. “Chai Research: Building the Platform for AI Friendship.” https://www.chai-research.com/

Green, C. M., J. M. Foy, M. F. Earls, Committee on Psychosocial Aspects of Child and Family Health, Mental Health Leadership Work Group, A. Lavin, G. L. Askew, R. Baum et al. 2019. Achieving the Pediatric Mental Health Competencies. American Academy of Pediatrics Technical Report, November 1. https://publications.aap.org/pediatrics/article/144/5/e20192758/38253/Achieving-the-Pediatric-Mental-Health-Competencies

Greenfield, D. and S. Bhavnani. 2023. “Social media: generative AI could harm mental health.” Nature, May 23. https://www.nature.com/articles/d41586-023-01693-8

Hanna, R. 2023. “Addicted to Chatbots: ChatGPT as Substance D.” Medium, July 10. https://bobhannahbob1.medium.com/addicted-to-chatbots-chatgpt-as-substance-d-3b3da01b84fb

Hattenstone, T. 2023. “Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane.” The Guardian, March 23. https://www.theguardian.com/technology/2023/mar/23/tech-guru-jaron-lanier-the-danger-isnt-that-ai-destroys-us-its-that-it-drives-us-insane

Khullar, D. 2023. “Can A.I. Treat Mental Illness?” The New Yorker, February 27. https://www.newyorker.com/magazine/2023/03/06/can-ai-treat-mental-illness

Klee, M. 2023. “She Was Falsely Accused of Cheating with AI—And She Won’t Be the Last.” Rolling Stone, June 6. https://www.rollingstone.com/culture/culture-features/student-accused-ai-cheating-turnitin-1234747351/

McPhillips, D. 2023. “Suicide rises to 11th leading cause of death in the US in 2021, reversing two years of decline.” CNN, April 13.

Murphy, C. 2023. Twitter thread, June 2. https://twitter.com/ChrisMurphyCT/status/1664641521914634242

OpenAI. Undated. “Introducing ChatGPT.”

Substance Abuse and Mental Health Services Administration (SAMHSA). 2022. Key substance use and mental health indicators in the United States: Results from the 2021 National Survey on Drug Use and Health. Center for Behavioral Health Statistics and Quality, Substance Abuse and Mental Health Services Administration. https://www.samhsa.gov/data/report/2021-nsduh-annual-national-report

Surgeon General. 2023. Social Media and Youth Mental Health: The U.S. Surgeon General’s Advisoryhttps://www.hhs.gov/sites/default/files/sg-youth-mental-health-social-media-advisory.pdf

Wilimitis, D., R. W. Turer, and M. Ripperger. 2022. “Integration of Face-to-Face Screening with Real-Time Machine Learning to Predict Risk of Suicide Among Adults.” JAMA Network Open, May 13. https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2792289

Weise, K. and C. Metz. 2023. “When A.I. Chatbots Hallucinate.” The New York Times, May 1. https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html

Xiang, C. 2023. “‘He Would Still Be Here’: Man Dies by Suicide After Talking With AI Chatbot, Wife Says.” Motherboard, March 30. https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says

Xie, T. and I. Pentina. 2022. “Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika.” In: Proceedings of the 55th Hawaii International Conference on System Scienceshttps://scholarspace.manoa.hawaii.edu/items/5b6ed7af-78c8-49a3-bed2-bf8be1c9e465