La IA en la consulta del médico: Los médicos recurren a ChatGPT y otras herramientas para realizar diagnósticos

19 de septiembre de 2024

  • Los médicos recurren a ChatGPT para que les ayude en la administración clínica y la toma de decisiones
  • Hasta 20% de unos 1.000 médicos de cabecera del Reino Unido admitieron utilizar herramientas de IA generativa.
  • Esto plantea dudas sobre los riesgos de la IA para la precisión diagnóstica y la seguridad de los pacientes.
Medicina de la IA

Un nuevo estudio ha revelado que uno de cada cinco médicos de cabecera del Reino Unido utiliza herramientas de inteligencia artificial como ChatGPT para realizar tareas cotidianas como sugerir diagnósticos y escribir cartas a los pacientes. 

En investigaciónpublicado en la revista BMJ Health and Care Informatics, encuestó a 1.006 médicos de todo el mundo sobre el uso de chatbots de IA en la práctica clínica. 

Unos 20% declararon utilizar herramientas de IA generativa, siendo ChatGPT la más popular. De los que utilizan IA, 29% afirmaron emplearla para generar documentación tras las citas con los pacientes, mientras que 28% la utilizaron para sugerir posibles diagnósticos.

"Estos hallazgos indican que los médicos de familia pueden sacar provecho de estas herramientas, sobre todo en tareas administrativas y para apoyar el razonamiento clínico", señalaron los autores del estudio. 

No tenemos ni idea de cuántos artículos ha utilizado OpenAI para entrenar sus modelos, pero desde luego son más de los que cualquier médico podría haber leído. Ofrece respuestas rápidas y convincentes y es muy fácil de usar, a diferencia de la búsqueda manual de artículos de investigación. 

¿Significa eso que ChatGPT es generalmente preciso para el asesoramiento clínico? En absoluto. Los grandes modelos lingüísticos (LLM) como ChatGPT se entrenan previamente con grandes cantidades de datos generales, lo que los hace más flexibles, pero de dudosa precisión para tareas médicas específicas.

Es fácil llevarles la contraria, ya que el modelo de IA tiende a alinearse con tus suposiciones en un comportamiento problemáticamente adulador.

Además, algunos investigadores afirman que los ChatGPT pueden ser conservadores o mojigatos al tratar temas delicados como la salud sexual.

Como Stephen Hughes, de la Universidad Anglia Ruskin escribió en The Conservation, “Le pedí a ChatGPT que diagnosticara dolor al orinar y secreción de los genitales masculinos tras mantener relaciones sexuales sin protección. Me intrigó ver que no recibía respuesta. Era como si ChatGPT se sonrojara de alguna manera tímida e informatizada. Al eliminar las menciones a las relaciones sexuales, ChatGPT dio un diagnóstico diferencial que incluía la gonorrea, que era la enfermedad que yo tenía en mente". 

Como comentó la Dra. Charlotte Blease, autora principal del estudio: "A pesar de la falta de orientación sobre estas herramientas y de unas políticas de trabajo poco claras, los médicos de familia afirman utilizarlas como ayuda en su trabajo. La comunidad médica tendrá que encontrar formas tanto de educar a los médicos como a los estudiantes en prácticas sobre los beneficios potenciales de estas herramientas a la hora de resumir la información, pero también sobre los riesgos en términos de alucinaciones, sesgos algorítmicos y el potencial de comprometer la privacidad del paciente."

Este último punto es clave. Pasar información del paciente a sistemas de IA constituye probablemente una violación de la privacidad y la confianza del paciente.

La Dra. Ellie Mein, asesora médico-legal del Sindicato de Defensa Médica, coincidió en las cuestiones clave: "Además de los usos señalados en el artículo del BMJ, hemos descubierto que algunos médicos recurren a programas de inteligencia artificial para que les ayuden a redactar las respuestas a las reclamaciones. Hemos advertido a los miembros del MDU de los problemas que esto plantea, como la inexactitud y la confidencialidad del paciente. También hay que tener en cuenta la protección de datos".

Y añadió: "Cuando se atienden quejas de pacientes, las respuestas redactadas con IA pueden parecer plausibles, pero pueden contener imprecisiones y hacer referencia a directrices incorrectas que pueden ser difíciles de detectar cuando se entretejen en pasajes de texto muy elocuentes. Es vital que los médicos utilicen la IA de forma ética y cumplan las directrices y normativas pertinentes."

Probablemente las preguntas más críticas en medio de todo esto son: ¿Hasta qué punto es preciso el ChatGPT en un contexto médico? Y ¿cuál podría ser el riesgo de un diagnóstico erróneo u otros problemas si esto continúa?

La IA generativa en la práctica médica

A medida que los médicos experimentan cada vez más con herramientas de IA, los investigadores se esfuerzan por evaluar cómo se comparan con los métodos de diagnóstico tradicionales. 

A estudiar publicado en Sistemas expertos con aplicaciones realizó un análisis comparativo entre ChatGPT, los modelos convencionales de aprendizaje automático y otros sistemas de IA para diagnósticos médicos.

Los investigadores descubrieron que, aunque ChatGPT resultaba prometedor, a menudo era superado por modelos tradicionales de aprendizaje automático entrenados específicamente en conjuntos de datos médicos. Por ejemplo, las redes neuronales de perceptrón multicapa lograron la mayor precisión en el diagnóstico de enfermedades basadas en síntomas, con índices de 81% y 94% en dos conjuntos de datos diferentes.

Los investigadores concluyeron que, aunque ChatGPT y otras herramientas de IA similares muestran potencial, "sus respuestas pueden ser a menudo ambiguas y estar fuera de contexto, por lo que proporcionan diagnósticos incorrectos, incluso si se le pide que proporcione una respuesta teniendo en cuenta sólo un conjunto específico de clases."

Esto coincide con otros estudios recientes que examinan el potencial de la IA en la práctica médica.

Por ejemplo, investigación publicado en JAMA Network Open puso a prueba la capacidad de GPT-4 para analizar casos complejos de pacientes. Aunque mostró resultados prometedores en algunas áreas, la GPT-4 seguía cometiendo errores, algunos de los cuales podrían ser peligrosos en escenarios clínicos reales.

Sin embargo, hay algunas excepciones. Una estudiar realizado por el New York Eye and Ear Infirmary of Mount Sinai (NYEE) demostró cómo la GPT-4 puede igualar o superar a los oftalmólogos humanos en el diagnóstico y tratamiento de enfermedades oculares.

En el caso del glaucoma, GPT-4 proporcionó respuestas muy precisas y detalladas que superaban las de los oftalmólogos reales. 

Desarrolladores de IA como OpenAI y NVIDIA están formando asistentes médicos de IA creados específicamente para ayudar a los médicos, con la esperanza de compensar las carencias de modelos de frontera básicos como el GP-4.

OpenAI ya se ha asociado con empresa de tecnología sanitaria Color Health para crear un "copiloto" de IA para la atención oncológica, lo que demuestra cómo estas herramientas están llamadas a concretarse en la práctica clínica.  

Sopesar beneficios y riesgos

Hay innumerables estudios que comparan modelos de IA especialmente entrenados con humanos en la identificación de enfermedades a partir de imágenes de diagnóstico como resonancias magnéticas y radiografías. 

Las técnicas de IA han superado a los médicos en todo, desde cáncer y diagnóstico de enfermedades oculares a Alzheimer y Detección precoz del Parkinson. Una de ellas, llamada "Mia", demostró su eficacia analizando más de 10.000 mamografías, señalando casos de cáncer conocidos y descubriendo cáncer en 11 mujeres que los médicos habían pasado por alto. 

Sin embargo, estas herramientas de IA creadas específicamente no son lo mismo que analizar las notas y los resultados en un modelo lingüístico como ChatGPT y pedirle que deduzca un diagnóstico a partir de ahí. 

Sin embargo, es una tentación difícil de resistir. No es ningún secreto que los servicios sanitarios están desbordados. Los tiempos de espera en el SNS siguen alcanzando máximos históricos, e incluso conseguir cita con el médico de cabecera en algunas zonas es una tarea sombría. 

Las herramientas de IA se centran en tareas administrativas que consumen mucho tiempo, tal es su atractivo para los médicos abrumados. Hemos visto un reflejo de esto en numerosos campos del sector público, como la educación, donde los profesores utilizan ampliamente la IA para crear materiales, corregir trabajos y mucho más. 

Entonces, ¿analizará tu médico tus notas en ChatGPT y te hará una receta basada en los resultados para tu próxima visita al médico? Es muy posible. Es otra frontera en la que es difícil negar la promesa de la tecnología de ahorrar tiempo. 

El mejor camino puede ser elaborar un código de uso. La Asociación Médica Británica ha pedido políticas claras sobre la integración de la IA en la práctica clínica.

"La comunidad médica tendrá que encontrar formas tanto de educar a los médicos y aprendices como de orientar a los pacientes sobre la adopción segura de estas herramientas", concluyen los autores del estudio del BMJ.

Además del asesoramiento y la formación, la investigación continua, unas directrices claras y el compromiso con la seguridad de los pacientes serán esenciales para aprovechar las ventajas de la IA y contrarrestar los riesgos.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales