Los científicos reclaman directrices éticas ante la ampliación del papel de los LLM en la atención sanitaria

11 de julio de 2024

  • La integración de los LLM en la asistencia sanitaria plantea problemas éticos
  • Investigadores de la Universidad de Potsdam piden más supervisión y directrices éticas
  • La privacidad, los prejuicios y las alucinaciones son cuestiones críticas para la IA sanitaria
ética

Según un nuevo estudio, las directrices éticas brillan por su ausencia mientras la IA sigue transformando la atención sanitaria, desde el descubrimiento de fármacos hasta el análisis de imágenes médicas.

En estudiar de Joschka Haltaufderheide y Robert Ranisch, de la Universidad de Potsdam, publicado en njp Digital Communications, analizó 53 artículos para trazar el panorama ético que rodea a los grandes modelos lingüísticos (LLM) en medicina y asistencia sanitaria.

Según el estudio, la IA ya se utiliza en varios ámbitos de la sanidad, entre ellos:

  • Interpretación de imágenes diagnósticas
  • Desarrollo y descubrimiento de fármacos
  • Planificación personalizada del tratamiento
  • Triaje de pacientes y evaluación de riesgos
  • Investigación médica y análisis bibliográfico

Los recientes efectos de la IA en la atención sanitaria y la medicina son espectaculares.

Hace poco, investigadores construyeron un modelo para la detección precoz del Alzheimer que puede predecir con exactitud 80% si a alguien se le diagnosticará la enfermedad en un plazo de seis años.

La primera Medicamentos generados por IA se dirigen ya a ensayos clínicos, y Análisis de sangre con inteligencia artificial puede detectar el cáncer a partir de moléculas individuales de ADN.

En términos de LLM, OpenAI y Color Health anunciado recientemente un sistema para ayudar a los médicos en el diagnóstico y tratamiento del cáncer.

Aunque sorprendentes, estos avances están creando una sensación de vértigo. ¿Podrían estar pasando desapercibidos los riesgos?

Centrándose específicamente en los LLM, los investigadores afirman: "Con la introducción de ChatGPT, los modelos lingüísticos de gran tamaño (LLM) han recibido una enorme atención en la atención sanitaria. A pesar de los beneficios potenciales, los investigadores han subrayado varias implicaciones éticas."

En cuanto a los beneficios: "Las ventajas del uso de los LLM se atribuyen a su capacidad de análisis de datos, suministro de información, apoyo en la toma de decisiones o mitigación de la pérdida de información y mejora de la accesibilidad a la información."

Sin embargo, también ponen de manifiesto importantes preocupaciones éticas: "Nuestro estudio también identifica preocupaciones éticas recurrentes relacionadas con la imparcialidad, la parcialidad, la no maleficencia, la transparencia y la privacidad. Una preocupación distintiva es la tendencia a producir contenidos perjudiciales o convincentes pero inexactos".

Este tema de las "alucinaciones", en las que los LLM generan imágenes plausibles pero información objetivamente incorrectaes especialmente preocupante en un contexto sanitario. En el peor de los casos, podría dar lugar a diagnósticos o tratamientos incorrectos.

Los desarrolladores de IA a menudo no pueden explicar cómo funcionan sus modelos, lo que se conoce como "problema de la caja negrapor lo que estos comportamientos erróneos son excepcionalmente difíciles de solucionar.

El estudio plantea inquietudes alarmantes sobre la parcialidad en los LLM, señalando: "Los modelos sesgados pueden dar lugar a un trato injusto de los grupos desfavorecidos, provocando disparidades en el acceso, exacerbando las desigualdades existentes o perjudicando a las personas mediante una precisión selectiva."

Citan un ejemplo concreto de ChatGPT y Foresight NLP que muestran prejuicios raciales hacia los pacientes negros. A estudio reciente de Yale descubrió un sesgo racial en el tratamiento de las imágenes radiográficas por parte de ChatGPT cuando se le facilitó información racial sobre las exploraciones.

Los prejuicios hacia los grupos minoritarios son bien conocidos y pueden tener consecuencias insidiosas en el contexto sanitario.

Los problemas de privacidad son otro riesgo: "El tratamiento de datos de pacientes plantea cuestiones éticas relacionadas con la confidencialidad, la privacidad y la seguridad de los datos".

Para hacer frente a los riesgos, la supervisión humana es primordial. Los investigadores también piden que se elaboren directrices éticas universales sobre la IA sanitaria para evitar que se produzcan situaciones perjudiciales.

El panorama ético de la IA en la atención sanitaria se amplía rápidamente a medida que se suceden los avances.

Recientemente, más de 100 científicos de renombre lanzaron una iniciativa voluntaria que esboza la seguridad reglas para el diseño de proteínas con IA, lo que pone de manifiesto que, a menudo, la tecnología avanza demasiado deprisa para que la seguridad pueda seguirle el ritmo.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales