Según un nuevo estudio, las directrices éticas brillan por su ausencia mientras la IA sigue transformando la atención sanitaria, desde el descubrimiento de fármacos hasta el análisis de imágenes médicas.
En estudiar de Joschka Haltaufderheide y Robert Ranisch, de la Universidad de Potsdam, publicado en njp Digital Communications, analizó 53 artículos para trazar el panorama ético que rodea a los grandes modelos lingüísticos (LLM) en medicina y asistencia sanitaria.
Según el estudio, la IA ya se utiliza en varios ámbitos de la sanidad, entre ellos:
- Interpretación de imágenes diagnósticas
- Desarrollo y descubrimiento de fármacos
- Planificación personalizada del tratamiento
- Triaje de pacientes y evaluación de riesgos
- Investigación médica y análisis bibliográfico
Los recientes efectos de la IA en la atención sanitaria y la medicina son espectaculares.
Hace poco, investigadores construyeron un modelo para la detección precoz del Alzheimer que puede predecir con exactitud 80% si a alguien se le diagnosticará la enfermedad en un plazo de seis años.
La primera Medicamentos generados por IA se dirigen ya a ensayos clínicos, y Análisis de sangre con inteligencia artificial puede detectar el cáncer a partir de moléculas individuales de ADN.
En términos de LLM, OpenAI y Color Health anunciado recientemente un sistema para ayudar a los médicos en el diagnóstico y tratamiento del cáncer.
Aunque sorprendentes, estos avances están creando una sensación de vértigo. ¿Podrían estar pasando desapercibidos los riesgos?
Centrándose específicamente en los LLM, los investigadores afirman: "Con la introducción de ChatGPT, los modelos lingüísticos de gran tamaño (LLM) han recibido una enorme atención en la atención sanitaria. A pesar de los beneficios potenciales, los investigadores han subrayado varias implicaciones éticas."
En cuanto a los beneficios: "Las ventajas del uso de los LLM se atribuyen a su capacidad de análisis de datos, suministro de información, apoyo en la toma de decisiones o mitigación de la pérdida de información y mejora de la accesibilidad a la información."
Sin embargo, también ponen de manifiesto importantes preocupaciones éticas: "Nuestro estudio también identifica preocupaciones éticas recurrentes relacionadas con la imparcialidad, la parcialidad, la no maleficencia, la transparencia y la privacidad. Una preocupación distintiva es la tendencia a producir contenidos perjudiciales o convincentes pero inexactos".
Este tema de las "alucinaciones", en las que los LLM generan imágenes plausibles pero información objetivamente incorrectaes especialmente preocupante en un contexto sanitario. En el peor de los casos, podría dar lugar a diagnósticos o tratamientos incorrectos.
Los desarrolladores de IA a menudo no pueden explicar cómo funcionan sus modelos, lo que se conoce como "problema de la caja negrapor lo que estos comportamientos erróneos son excepcionalmente difíciles de solucionar.
El estudio plantea inquietudes alarmantes sobre la parcialidad en los LLM, señalando: "Los modelos sesgados pueden dar lugar a un trato injusto de los grupos desfavorecidos, provocando disparidades en el acceso, exacerbando las desigualdades existentes o perjudicando a las personas mediante una precisión selectiva."
Citan un ejemplo concreto de ChatGPT y Foresight NLP que muestran prejuicios raciales hacia los pacientes negros. A estudio reciente de Yale descubrió un sesgo racial en el tratamiento de las imágenes radiográficas por parte de ChatGPT cuando se le facilitó información racial sobre las exploraciones.
Los prejuicios hacia los grupos minoritarios son bien conocidos y pueden tener consecuencias insidiosas en el contexto sanitario.
Los problemas de privacidad son otro riesgo: "El tratamiento de datos de pacientes plantea cuestiones éticas relacionadas con la confidencialidad, la privacidad y la seguridad de los datos".
Para hacer frente a los riesgos, la supervisión humana es primordial. Los investigadores también piden que se elaboren directrices éticas universales sobre la IA sanitaria para evitar que se produzcan situaciones perjudiciales.
El panorama ético de la IA en la atención sanitaria se amplía rápidamente a medida que se suceden los avances.
Recientemente, más de 100 científicos de renombre lanzaron una iniciativa voluntaria que esboza la seguridad reglas para el diseño de proteínas con IA, lo que pone de manifiesto que, a menudo, la tecnología avanza demasiado deprisa para que la seguridad pueda seguirle el ritmo.