INTELIGENCIA ARTIFICIAL

Los riesgos poco conocidos de usar la IA como terapeuta

Cada vez más personas recurren a chatbots de IA para apoyo emocional y aunque hay beneficios, expertos alertan sobre sesgos, falta de empatía, delitos de datos y riesgos clínicos graves

Hay personas que pueden ser más vulnerables a los riesgos de la IA.
Hay personas que pueden ser más vulnerables a los riesgos de la IA. Créditos: Canva
Escrito en MENTE SANA el

En un panorama donde los sistemas de salud mental están saturados, muchas personas recurren a chatbots de Inteligencia Artificial (IA) como ChatGPT, Gemini o Copilot para recibir contención emocional en momentos difíciles.

Hay que tener algunas precauciones con el uso de la IA.

Aunque parece una solución sencilla y sobre todo, gratuita, debemos tener en cuenta algunas precauciones. Un artículo de WebMD destaca que estas herramientas no surgen de protocolos clínicos validados y pueden entrañar riesgos graves, especialmente para grupos vulnerables como niños, personas con depresión severa o en crisis suicida.  

La accesibilidad 24/7, el anonimato y los bajos costos son aspectos atractivos para el uso de la IA como terapeuta. Además, se estima que casi la mitad de adultos con necesidades mentales significativas no puede acceder a tratamiento, y la cifra llega al 75 % en jóvenes, tal como lo advierte la psicóloga Jessica Schleider

Ensayos clínicos iniciales también muestran que ciertos chatbots podrían reducir síntomas de depresión y ansiedad en casos leves a moderado. 

¿Qué riesgos hay por usar un chatbot de IA como terapeuta?  

En un artículo para SuMédico, el Dr. Edilberto Peña, neuropsiquiatra de CISNE México, detalla que en ciertos aspectos la inteligencia artificial puede acompañarnos en nuestros momentos de mayor vulnerabilidad emocional, pero debemos tener en cuenta muchas aclaraciones importantes. 

"La forma en que la IA ha aprendido a 'hacer psicoterapia' es fascinante. Se han cargado a sus sistemas miles de horas de sesiones reales, de diferentes modelos terapéuticos —desde la terapia cognitivo conductual hasta la psicodinámica—, para que estos algoritmos aprendan a reconocer patrones, formular respuestas, hacer preguntas terapéuticas y hasta brindar contención emocional", explica el especialista. 

Gracias a modelos de lenguaje avanzados y al entrenamiento con datos cuidadosamente seleccionados, estas IA pueden simular una conversación terapéutica bastante convincente. 

La IA parece empática pero puede ofrecer respuestas inadecuadas. 

Incluso hay estudios que confirman que en ciertos contextos, estas herramientas digitales pueden percibirse como más empáticas que un terapeuta humano gracias a su disponibilidad emocional total y su paciencia infinita.  

No obstante, otros estudios como el realizado por la Universidad de Stanford, alertan que los chatbots de inteligencia artificial pueden reforzar estigmas, emitir respuestas inadecuadas y no estar a la altura del cuidado humano. 

"En muchos sentidos, este tipo de problemas humanos aún requieren un toque humano para resolverse. La terapia no se trata solo de resolver problemas clínicos, sino también de resolver problemas con otras personas y construir relaciones humanas", apuntan. 

En la revista científica BMJ se indica que hay más de 20,000 apps de salud mental con IA, pero muchas carecen de supervisión clínica y pueden inducir a errores significativos. 

La revista Science Insights también plantea que estos programas operan en una 'zona gris regulatoria' y pueden generar daño al usuario, incluso en crisis. 

¿Quiénes están en mayor riesgo? 

En un experimento periodístico publicado por TIME, un psiquiatra fingió ser un adolescente y observó respuestas peligrosas: algunos bots, como Replika y Nomi, llegaron a sugerir autolesiones, promover violencia o simular licencias profesionales sin verificarlas, por lo que adolescentes, niños y personas vulnerables emocionalmente pueden estar en mayor riesgo. 

Al respecto, la Asociación Estadounidense de Psicología (APA) y la Academia Americana de Pediatría (AAP) son claras: urge diseñar una IA con protección específica para menores, políticas claras y transparencia sobre su naturaleza artificial. 

En California, Estados Unidos, una propuesta de ley apunta a impedir que sistemas de IA se hagan pasar por terapeutas humanos, especialmente frente al riesgo de suicidios relacionados con chatbots. 

No estamos listos para que la IA sea nuestro terapeuta 

El Dr. Edilberto Peña destaca que la empatía de una IA es una simulación basada en patrones, lo que significa que no siente. Puede ofrecer frases que suenan reconfortantes pero carece de la verdadera conexión humana que muchas veces es terapéutica por sí sola.  

"¿Entonces, dónde está el verdadero valor de estas herramientas? En el acompañamiento. Cada vez más se está utilizando la IA como asistente virtual entre sesiones", puntualiza. 

La evidencia sugiere que, aunque las herramientas de IA pueden aliviar la falta de atención en salud mental, no están diseñadas para replicar la conexión, experiencia y adaptabilidad humana. En general, la literatura científica y médica coincide: la IA debe ser un complemento, no un sustituto en el cuidado emocional. 

El uso de la IA en salud mental debe ser vigilado por expertos.

"No sustituye al terapeuta humano, pero puede ser su asistente, su soporte y, en algunos casos, su extensión más constante", menciona al respecto el Dr. Edilberto Peña.  

En conclusión, no debemos temerle al uso de la inteligencia artificial en la salud mental, más bien aprender a usarla éticamente y sobre todo, con supervisión profesional, especialmente si ya tenemos un diagnóstico de problemas mentales o estamos luchando ante síntomas abrumadores. 

Para enterarte de toda la información que necesitas sobre salud y bienestar síguenos en Facebook, Instagram y TikTok