SALUD MENTAL

Chatbots como terapeutas: fallan en crisis y ponen en riesgo a usuarios

Estudio detectó 15 violaciones éticas en chatbots usados como terapeutas, incluidas fallas ante crisis suicidas, sesgos y “empatía” que simula comprensión sin realmente entender al paciente

salud mental.Créditos: Canva
Escrito en MENTE SANA el

El uso de chatbots como apoyo emocional o incluso como sustitutos de terapia profesional está creciendo, sin embargo, un estudio advirtió que estos sistemas "inteligentes" pueden incurrir en fallas éticas graves que pondrían en riesgo a los pacientes.

Investigadores de la Universidad de Brown analizaron qué ocurre cuando modelos de inteligencia artificial- como ChatGPT-  son utilizados como terapeutas; simularon sesiones de terapia cognitivo-conductual y pidieron a psicólogos clínicos con licencia revisar cada conversación.

El resultado fue contundente: identificaron 15 violaciones a los estándares éticos que rigen la práctica profesional en Estados Unidos, establecidos por la Asociación Americana de Psicología. Lo más grave es que no se trata de errores menores, sino de incumplimientos que, en un terapeuta humano, podrían derivar en la pérdida de la licencia.

Uno de los hallazgos más preocupantes fue la gestión de crisis, porque cuando los usuarios expresaban pensamientos suicidas, los chatbots no los canalizaban adecuadamente hacia ayuda profesional y en algunos casos, evitaban el tema o respondían de forma ambigua, lo que podría agravar la situación.

En terapia, la intervención en crisis es un punto crítico. No actuar correctamente puede tener consecuencias graves, y los sistemas analizados mostraron limitaciones claras en este terreno.

Otro problema detectado fue la tendencia de los modelos a validar pensamientos distorsionados, porque en lugar de cuestionarlos- como lo haría un terapeuta entrenado-, los chatbots a menudo coincidían con el usuario, reforzando creencias negativas o poco realistas.

Sesgos y trato desigual

El estudio también documentó sesgos en las respuestas, pues dependiendo del género, la cultura o la religión del usuario, las recomendaciones variaban, lo que implica un trato desigual, mientras que en la práctica clínica, este tipo de sesgos es considerado una falta grave.

Uno de los conceptos más relevantes que introduce la investigación es el de “empatía engañosa” porque los chatbots utilizan frases como “te entiendo” o “debe ser muy difícil”, similares a las que emplearía un terapeuta real para generar confianza.

Sin embargo, los investigadores subrayan que esta empatía es simulada porque los sistemas no comprenden emociones ni contextos; solo identifican patrones en el lenguaje. Aun así, logran que los usuarios confíen, se abran y compartan información sensible.

A diferencia de los profesionales de la salud mental, estos sistemas no están sujetos a marcos regulatorios claros, por ejemplo, si un terapeuta humano incurre en estas faltas, existen organismos que supervisan su práctica y aplican sanciones.

Joven se suicida tras consultar a ChapGPT

Una pareja de California demandó a OpenAI- el año pasado- por la muerte de su hijo adolescente, alegando que su chatbot, ChatGPT, lo animó a quitarse la vida.

La demanda fue presentada el martes por Matt y Maria Raine, padres de Adam Raine, de 16 años, en la Corte Superior de California y se trató de la primera acción legal que acusa a OpenAI de una muerte por su negligencia.

La familia adjuntó a la demanda los chats entre el joven y ChatGPT, en los que él explicó que tiene pensamientos suicidas; los padres argumentan que el chatbot validó sus "pensamientos más dañinos y autodestructivos".
 

Para enterarte de toda la información que necesitas sobre salud y bienestar síguenos en Facebook y TikTok.