Selon une nouvelle étude, les directives éthiques brillent par leur absence alors que l'IA continue de transformer les soins de santé, de la découverte de médicaments à l'analyse de l'imagerie médicale.
Les étude L'étude de Joschka Haltaufderheide et Robert Ranisch de l'université de Potsdam, publiée dans njp Digital Communications, a analysé 53 articles pour dresser le paysage éthique entourant les grands modèles de langage (LLM) en médecine et dans les soins de santé.
L'étude a révélé que l'IA est déjà utilisée dans divers domaines de la santé, notamment :
- Interprétation de l'imagerie diagnostique
- Développement et découverte de médicaments
- Planification personnalisée du traitement
- Triage des patients et évaluation des risques
- Recherche médicale et analyse de la littérature
Les impacts récents de l'IA sur les soins de santé et la médecine sont tout simplement spectaculaires.
Tout récemment, les chercheurs ont construit un modèle pour le dépistage précoce de la maladie d'Alzheimer, qui peut prédire avec une précision de 80% si une personne sera diagnostiquée avec la maladie dans les six ans.
Le premier Médicaments générés par l'IA sont déjà en cours d'essais cliniques, et Tests sanguins alimentés par l'IA peut détecter le cancer à partir d'une seule molécule d'ADN.
En termes de LLM, OpenAI et Color Health a récemment annoncé un système d'aide aux cliniciens pour le diagnostic et le traitement du cancer.
Bien qu'étonnantes, ces avancées créent un sentiment de vertige. Les risques pourraient-ils passer inaperçus ?
En ce qui concerne plus particulièrement les LLM, les chercheurs déclarent : "Avec l'introduction de ChatGPT, les grands modèles linguistiques (LLM) ont fait l'objet d'une grande attention dans le domaine des soins de santé. Malgré les avantages potentiels, les chercheurs ont souligné diverses implications éthiques."
Du côté des avantages : "Les avantages de l'utilisation des LLM sont attribués à leur capacité d'analyse des données, à la fourniture d'informations, à l'aide à la prise de décision ou à l'atténuation de la perte d'informations et à l'amélioration de l'accessibilité des informations".
Cependant, ils mettent également en évidence des problèmes éthiques majeurs : "Notre étude identifie également des préoccupations éthiques récurrentes liées à l'équité, à la partialité, à la non-malfaisance, à la transparence et à la protection de la vie privée. La tendance à produire des contenus nuisibles ou convaincants mais inexacts constitue une préoccupation particulière."
Cette question des "hallucinations", où les LLM produisent des images plausibles, mais qui ne sont pas des "hallucinations", a été soulevée par la Commission européenne. des informations factuellement incorrectesLe problème de l'accès à l'information est particulièrement préoccupant dans le contexte des soins de santé. Dans le pire des cas, il peut entraîner des diagnostics ou des traitements erronés.
Souvent, les développeurs d'IA ne sont pas en mesure d'expliquer le fonctionnement de leurs modèles, ce que l'on appelle la "problème de la boîte noireCes comportements erronés sont donc exceptionnellement difficiles à corriger.
L'étude soulève des préoccupations alarmantes sur la partialité dans les LLM, notant : "Les modèles biaisés peuvent entraîner un traitement inéquitable des groupes défavorisés, conduisant à des disparités d'accès, exacerbant les inégalités existantes, ou portant préjudice aux personnes en raison d'une précision sélective".
Ils citent un exemple spécifique de ChatGPT et de Foresight NLP montrant des préjugés raciaux à l'égard des patients noirs. A une étude récente de Yale a constaté des préjugés raciaux dans le traitement des images radiographiques par le ChatGPT lorsqu'il recevait des informations raciales sur les scanners.
Les préjugés des LLM à l'égard des groupes minoritaires sont bien connus et peuvent avoir des conséquences insidieuses dans le contexte des soins de santé.
Les préoccupations en matière de protection de la vie privée constituent un autre risque : "Le traitement des données des patients soulève des questions éthiques concernant la confidentialité, la vie privée et la sécurité des données.
Pour faire face aux risques, la surveillance humaine est primordiale. Les chercheurs appellent également à l'élaboration de lignes directrices éthiques universelles sur l'IA dans le domaine de la santé afin d'éviter que des scénarios préjudiciables ne se développent.
Le paysage de l'éthique de l'IA dans les soins de santé s'étend rapidement à mesure que les percées se multiplient.
Récemment, plus de 100 scientifiques de renom ont lancé une initiative volontaire visant à améliorer la sécurité. règles pour la conception de protéines par l'IA, soulignant que la technologie évolue souvent trop vite pour que la sécurité puisse suivre.