CHAT GPT

Esta IA puede ofrecer información errónea sobre cáncer, revela estudio

Investigadores han encontrado que esta aplicación de inteligencia artificial puede ofrecer información inadecuada sobre el tratamiento del cáncer hasta en un tercio de los casos

Aunque puede ser útil para algunas cosas, los especialistas indican que lo ideal es no dar por sentada la información obtenida y siempre hablar con un especialista en salud.
Aunque puede ser útil para algunas cosas, los especialistas indican que lo ideal es no dar por sentada la información obtenida y siempre hablar con un especialista en salud.
Escrito en ESPECIALIDADES el

Gracias a internet y diferentes herramientas disponibles, es posible que las personas (en especial pacientes) puedan informarse a fondo de temas médicos, principalmente a los relacionados con temas como tratamientos para padecimientos que podrían resultar angustiantes o desconocidos, como en el caso del cáncer.

Sin embargo, estas herramientas podrían no ser la mejor opción, y según un estudio del Brigham and Women’s Hospital, existe una IA que puede ofrecer información errónea sobre el tratamiento del cáncer, por lo que su uso no sería recomendado.

De hecho, el estudio descubrió que en al menos un tercio de los casos, esta herramienta de IA ofrecía información inapropiada respecto a los tratamientos contra el cáncer, que no concordaban con las guías nacionales.

Estos hallazgos, indican los expertos, resaltan la importancia de conocer las limitaciones de la tecnología; y si bien es necesario que los pacientes se involucren en conocer sobre sus condiciones médicas, es muy importante que siempre hablen con un especialista en salud.

Foto: Canva.

ChatGPT daría recomendaciones inapropiadas sobre cáncer

Con resultados publicados en la revista JAMA Oncology, una investigación realizada por un equipo del Brigham and Women’s Hospital mostró que al investigar sobre recomendaciones en el tratamiento contra el cáncer, en al menos un tercio de los casos Chat GPT brindaba información inapropiada.

El equipo se encargó de analizar las respuestas de ChatGPT en relación a tres de tipos de cáncer más comunes (mama, próstata y pulmón) y las posibles formas de tratamiento que pudiera brindar la inteligencia artificial. Posteriormente, estas respuestas se compararon con las guías del National Comprehensive Cancer Network (NCCN).

Al comparar las respuestas, los investigadores pudieron darse cuenta de que un 34% de las respuestas de ChatGPT incluía al menos una (o más) recomendaciones para tratar el cáncer que no concordaban con la guía nacional, e incluso eran difíciles de detectar.

"Los pacientes deben sentirse capacitados para informarse sobre sus afecciones médicas, pero siempre deben hablar con un médico, y los recursos en Internet no deben consultarse de forma aislada", informó la autora correspondiente del estudio, Danielle Bitterman, oncóloga radioterapeuta.

Foto: Canva.

ChatGPT también generaría “alucinaciones” para tratar el cáncer

Los investigadores elaboraron plantillas para preguntar recomendaciones de tratamiento para cáncer, que evitaban proporcionar a la inteligencia artificial algún tipo de respuesta correcta. A partir de estas, se desarrollaron 104 indicaciones de preguntas, considerando el tipo de cáncer o la gravedad del diagnóstico.

Posteriormente, las respuestas de ChatGPT fueron evaluadas por 3 de 4 oncólogos certificados y una comparación con las guías de tratamiento de la National Comprehensive Cancer Network de 2021, considerando que el conocimiento del chatbox estaba limitado a la información de septiembre de 2021.

Casi todas las respuestas (un 98%) de ChatGPT incluyeron una recomendación de tratamiento para cáncer que concordaba con las guías del NCCN. Sin embargo, aproximadamente un tercio de las respuestas tenían una o más recomendaciones que no concordaban con las guías, o que eran parcialmente correctas.

En otro porcentaje de las respuestas (12.5%), se presentó lo que los investigadores denominaron como alucinaciones: una recomendación de ChatGPT para tratar el cáncer que en realidad estaba completamente ausente de las guías de tratamiento del NCCN, incluyendo:

  • Recomendaciones de terapias novedosas.
  • Terapias para curar tipos de cáncer que no pueden ser curados.
Foto: Freepik.

Esta desinformación puede afectar a los pacientes

Si bien un 62% de las respuestas de ChatGPT tuvo un total acuerdo entre con la guía del NCCN, los investigadores explican que estos resultados demuestran qué tan vagos o difíciles de interpretar pueden ser los resultados de esta inteligencia artificial, así como la complejidad de las pautas oficiales.

Además, los autores de la investigación indican que es muy importante evitar este tipo de desinformación en los pacientes que deben someterse a un tratamiento contra cáncer (y otros padecimientos), ya que podría generar expectativas falsas sobre los resultados a obtener.

“Las respuestas de ChatGPT pueden sonar muy parecidas a las de un humano y pueden ser bastante convincentes. Pero cuando se trata de la toma de decisiones clínicas, existen muchas sutilezas para la situación única de cada paciente. Una respuesta correcta puede tener muchos matices y no necesariamente es algo que ChatGPT u otro modelo de lenguaje grande pueda proporcionar”, informó Danielle Bitterman.

(Con información de: JAMA Oncology, The Harvard Gazette.)