La inteligencia artificial llegó para quedarse. Hoy la usamos para escribir correos, organizar agendas, estudiar, pedir recomendaciones e incluso para conversar cuando nos sentimos solos. Como neuropsiquiatra, creo que sería absurdo satanizar una herramienta con enorme potencial educativo, médico y social. El problema no es la inteligencia artificial. El problema es cómo nuestro cerebro puede empezar a relacionarse con ella.
En las últimas semanas comenzó a crecer una conversación preocupante dentro de la psiquiatría y la neurociencia: los primeros reportes de casos de personas que desarrollaron ideas delirantes asociadas al uso excesivo de chatbots de inteligencia artificial. Algunos medios internacionales incluso ya hablan de “psicosis por IA”.
Te podría interesar
Los casos reportados incluyen personas convencidas de descubrir verdades ocultas, desarrollar misiones especiales, recibir mensajes espirituales o confirmar teorías paranoides a través de conversaciones prolongadas con sistemas de inteligencia artificial. En algunos reportes, usuarios con vulnerabilidad psiquiátrica previa comenzaron a aislarse socialmente mientras reforzaban pensamientos cada vez más desconectados de la realidad mediante interacciones constantes con chatbots.
Aquí es importante mantener el equilibrio: la inteligencia artificial no “provoca esquizofrenia” ni genera psicosis automáticamente en cerebros sanos. Pero sí puede actuar como un amplificador emocional y cognitivo en personas vulnerables.
Y ahí es donde el tema se vuelve fascinante y preocupante desde la neuropsiquiatría.
El cerebro humano necesita contraste social para mantener una percepción adecuada de la realidad. Necesitamos que alguien nos cuestione, nos confronte o nos ayude a reorganizar pensamientos cuando nuestras ideas comienzan a distorsionarse. El problema es que muchos sistemas de IA están diseñados para ser agradables, empáticos y adaptativos. En términos simples: buscan seguir la conversación y validar al usuario para mantener la interacción.
Eso puede ser útil para aprender idiomas o resolver dudas cotidianas. Pero en ciertas personas puede transformarse en un “eco cognitivo”, donde el sistema deja de funcionar como herramienta y empieza a reforzar narrativas personales sin suficiente filtro crítico.
El riesgo aumenta en contextos de aislamiento social, insomnio, ansiedad intensa, duelo complicado, consumo de sustancias o antecedentes psiquiátricos. Y también en adolescentes y adultos jóvenes que pasan muchas horas interactuando digitalmente y cada vez menos tiempo contrastando ideas en relaciones humanas reales.
Hay otro punto importante: nuestro cerebro tiende naturalmente al sesgo confirmatorio. Es decir, buscamos información que confirme lo que ya creemos. Si a esto le sumamos una tecnología hiperpersonalizada y disponible las 24 horas, el impacto emocional puede ser enorme.
La inteligencia artificial puede acompañar, orientar y facilitar muchos aspectos de la vida. Pero no debe sustituir vínculos humanos, pensamiento crítico ni atención profesional en salud mental.
Tal vez la gran pregunta de esta década no sea si la inteligencia artificial llegará a pensar como nosotros. Tal vez la verdadera pregunta sea qué pasará cuando nosotros empecemos a depender demasiado de sistemas que constantemente nos dan la razón.
La salud mental del futuro no sólo implicará aprender a vivir con pantallas. También implicará aprender a conservar algo profundamente humano: la capacidad de cuestionar nuestras propias ideas, tolerar la incertidumbre y mantenernos conectados con la realidad.
