Las herramientas de inteligencia artificial (IA) se están utilizando cada vez más en el ámbito de la salud mental: desde aplicaciones de conversación hasta asistentes que detectan estados emocionales. Sin embargo, los especialistas advierten que estas tecnologías no cumplen aún los estándares de calidad, seguridad y ética requeridos para la práctica clínica.
Es decir, la inteligencia artificial promete ampliar el acceso a la atención psicológica, pero expertos advierten que las IA aún no cumplen los estándares clínicos ni éticos para ofrecer terapia mental.
Te podría interesar
Según un informe de la Organización Mundial de la Salud (OMS) publicado en 2023, “muchas aplicaciones de IA en salud mental no han sido evaluadas adecuadamente en el mundo real”, y su uso sin supervisión profesional “puede representar riesgos para los pacientes”.
El riesgo de la IA en el tratamiento de la salud mental
Una investigación realizada por científicos informáticos de la Universidad de Brown y profesionales de la salud mental reveló que los chatbots de IA son propensos a diversas violaciones éticas en el tratamiento de enfermedades mentales:
- Gestión inapropiada de situaciones de crisis.
- La provisión de respuestas engañosas que refuerzan las creencias negativas de los usuarios sobre sí mismos y los demás.
- La creación de una falsa sensación de empatía con los usuarios.
El estudio enfatizó que si bien estos modelos no realizan estas técnicas terapéuticas como lo haría un humano, utilizan sus patrones aprendidos para generar respuestas que se alinean con los conceptos de la terapia cognitivo-conductual, basándose en la indicación proporcionada por el usuario y paciente. No obstante, la IA desconoce las implicaciones de estos conceptos en el tratamiento.
Adicionalmente, las respuestas automatizadas de estas herramientas con IA pueden ofrecer apoyo básico, pero no sustituir la interpretación emocional ni la experiencia de un profesional.
El estudio expuso 5 grandes áreas de oportunidad para estas nuevas tecnologías:
- Falta de adaptación contextual.
- Colaboración terapéutica deficiente.
- Empatía engañosa para crear una conexión falsa con el paciente.
- Discriminación injusta, con prejuicios de género, culturales o religiosos.
- Falta de seguridad de datos y gestión de crisis.
Vale la pena recalcar que la atención psicológica debe mantenerse bajo la guía de especialistas capacitados, garantizando empatía, seguridad y confidencialidad.
Las inteligencias artificiales pueden ser aliadas de los profesionales de la salud mental, pero no sustituyen la intervención humana. Hasta el momento, no cumplen con los estándares clínicos, éticos ni regulatorios necesarios para ofrecer terapia o diagnóstico de manera autónoma.
Para enterarte de toda la información que necesitas sobre salud y bienestar síguenos en Facebook, Instagram y TikTok.
