Une nouvelle enquête a révélé qu'un médecin généraliste sur cinq au Royaume-Uni utilise des outils d'IA tels que ChatGPT pour l'aider dans ses tâches quotidiennes, notamment pour suggérer des diagnostics et rédiger des lettres à l'intention des patients.
Les rechercheL'étude, publiée dans la revue BMJ Health and Care Informatics, a interrogé 1 006 médecins généralistes des États-Unis sur leur utilisation des chatbots dans la pratique clinique.
Quelque 20% ont déclaré utiliser des outils d'IA générative, ChatGPT étant le plus populaire. Parmi ceux qui utilisent l'IA, 29% ont déclaré l'employer pour générer de la documentation après les rendez-vous avec les patients, tandis que 28% l'ont utilisée pour suggérer des diagnostics potentiels.
"Ces résultats indiquent que les médecins généralistes peuvent tirer profit de ces outils, en particulier pour les tâches administratives et pour soutenir le raisonnement clinique", notent les auteurs de l'étude.
Charlotte Blease, auteur principal de l'étude, a commenté l'étude : "Malgré un manque d'orientation sur ces outils et des politiques de travail peu claires, les médecins généralistes déclarent les utiliser pour les aider dans leur travail. La communauté médicale devra trouver des moyens d'éduquer les médecins et les stagiaires sur les avantages potentiels de ces outils pour résumer l'information, mais aussi sur les risques en termes d'hallucinations, de biais algorithmiques et de compromission potentielle de la vie privée des patients".
Ce dernier point est essentiel. Transmettre des informations sur les patients à des systèmes d'IA constitue probablement une violation de la vie privée et de la confiance des patients.
Le Dr Ellie Mein, conseillère médico-légale à l'Union de défense médicale, est d'accord sur les points essentiels : "Outre les utilisations identifiées dans l'article du BMJ, nous avons constaté que certains médecins se tournent vers des programmes d'IA pour les aider à rédiger leurs réponses aux plaintes. Nous avons mis en garde les membres de la MDU contre les problèmes que cela soulève, notamment l'inexactitude et la confidentialité des patients. Il y a également des considérations liées à la protection des données.
Elle a ajouté : "Lorsqu'ils traitent les plaintes des patients, les réponses rédigées par l'IA peuvent sembler plausibles, mais elles peuvent contenir des inexactitudes et faire référence à des lignes directrices incorrectes qui peuvent être difficiles à repérer lorsqu'elles sont intégrées dans des passages de texte très éloquents. Il est essentiel que les médecins utilisent l'IA de manière éthique et qu'ils se conforment aux directives et aux réglementations en vigueur.
Nous n'avons aucune idée du nombre d'articles qu'OpenAI a utilisés pour former ses modèles, mais c'est certainement plus que ce qu'un médecin aurait pu lire. Il donne des réponses rapides et convaincantes et est très facile à utiliser, contrairement à la recherche manuelle d'articles de recherche.
Cela signifie-t-il que ChatGPT est généralement précis pour les conseils cliniques ? Non. Les grands modèles de langage (LLM) comme ChatGPT sont pré-entraînés sur des quantités massives de données générales, ce qui les rend plus flexibles mais d'une précision douteuse pour des tâches médicales spécifiques.
Les modèles d'IA tels que ChatGPT peuvent être facilement dirigés, se rangeant souvent du côté des hypothèses de l'utilisateur d'une manière problématique et flagorneuse. En outre, les chercheurs ont noté que ces modèles peuvent présenter des tendances trop conservatrices ou pudibondes lorsqu'ils abordent des sujets sensibles tels que la santé sexuelle.
Stephen Hughes de l'Université Anglia Ruskin a écrit dans The Conservation, “J'ai demandé à ChatGPT de diagnostiquer une douleur lors de l'émission d'urine et un écoulement des organes génitaux masculins après un rapport sexuel non protégé. J'ai été intrigué de constater que je n'ai reçu aucune réponse. C'était comme si ChatGPT avait rougi d'une manière timide et informatisée. En supprimant les mentions de rapports sexuels, ChatGPT a donné un diagnostic différentiel qui incluait la gonorrhée, qui était la maladie que j'avais en tête.
Les questions les plus importantes sont probablement les suivantes : Quelle est la précision du ChatGPT dans un contexte médical ? Et quelle est l'ampleur des risques d'erreur de diagnostic ou d'autres problèmes si cela continue ?
L'IA générative dans la pratique médicale
Alors que les médecins généralistes expérimentent de plus en plus les outils d'IA, les chercheurs s'efforcent d'évaluer leur comparaison avec les méthodes de diagnostic traditionnelles.
A étude publié dans Systèmes experts avec applications a réalisé une analyse comparative entre ChatGPT, les modèles conventionnels d'apprentissage automatique et d'autres systèmes d'IA pour les diagnostics médicaux.
Les chercheurs ont constaté que si le ChatGPT était prometteur, il était souvent surpassé par les modèles traditionnels d'apprentissage automatique spécifiquement formés sur des ensembles de données médicales. Par exemple, les réseaux neuronaux à perceptron multicouche ont obtenu la plus grande précision dans le diagnostic des maladies sur la base des symptômes, avec des taux de 81% et 94% sur deux ensembles de données différents.
Les chercheurs ont conclu que si le ChatGPT et les outils d'IA similaires présentent un potentiel, "leurs réponses peuvent être souvent ambiguës et hors contexte, fournissant ainsi des diagnostics incorrects, même s'il leur est demandé de ne fournir une réponse qu'en tenant compte d'un ensemble spécifique de classes".
Ces résultats s'inscrivent dans la lignée d'autres études récentes examinant le potentiel de l'IA dans la pratique médicale.
Par exemple, recherche publié dans JAMA Network Open a testé la capacité du GPT-4 à analyser des cas de patients complexes. Bien qu'il ait montré des résultats prometteurs dans certains domaines, le GPT-4 a encore commis des erreurs, dont certaines pourraient être dangereuses dans des scénarios cliniques réels.
Il y a cependant quelques exceptions. L'une d'entre elles étude menée par le New York Eye and Ear Infirmary of Mount Sinai (NYEE) a démontré que le GPT-4 peut égaler ou dépasser les capacités des ophtalmologistes humains en matière de diagnostic et de traitement des maladies oculaires.
Pour le glaucome, le GPT-4 a fourni des réponses très précises et détaillées qui ont dépassé celles de véritables spécialistes des yeux.
Les développeurs d'IA tels que OpenAI et NVIDIA forment actuellement des assistants d'IA médicale spécialisés pour aider les cliniciens, en comblant les lacunes des modèles de base frontaliers tels que GP-4.
OpenAI a déjà conclu un partenariat avec entreprise de technologie de la santé Color Health pour créer un "copilote" d'IA pour les soins en cancérologie, démontrant ainsi que ces outils sont appelés à devenir plus spécifiques à la pratique clinique.
Peser les avantages et les risques
D'innombrables études comparent des modèles d'IA spécialement formés à des humains pour identifier des maladies à partir d'images diagnostiques telles que l'IRM et la radiographie.
Les techniques d'IA ont surpassé les médecins dans tous les domaines, qu'il s'agisse de la santé, de l'éducation ou de la sécurité. cancer et le diagnostic des maladies oculaires à Alzheimer et Détection précoce de la maladie de Parkinson. Un modèle d'IA, baptisé "Mia", s'est avéré efficace pour analyser plus de 10 000 mammographies, signaler des cas de cancer connus et découvrir chez 11 femmes un cancer que les médecins n'avaient pas décelé.
Cependant, ces outils d'IA spécialement conçus ne sont certainement pas les mêmes que l'analyse des notes et des résultats dans un modèle de langage générique tel que ChatGPT et la déduction d'un diagnostic à partir de ce seul élément.
Néanmoins, il est difficile de résister à la tentation de la facilité et de la rapidité des réponses.
Ce n'est un secret pour personne que les services de santé sont débordés. Les outils d'IA permettent de gagner du temps, c'est pourquoi ils séduisent les médecins débordés.
Nous avons vu ce phénomène se refléter dans le secteur public, par exemple dans l'éducation, où les enseignants utilisent largement l'IA pour créer du matériel, noter les travaux, etc.
Votre médecin analysera-t-il vos notes dans ChatGPT et vous prescrira-t-il une ordonnance en fonction des résultats lors de votre prochaine visite chez le médecin ? C'est fort possible. C'est un autre domaine où la promesse de la technologie de l'IA de faire gagner un temps précieux est difficile à nier.
Une partie du chemin à parcourir consistera à élaborer un code d'utilisation de l'IA dans le cabinet médical. La British Medical Association a déjà demandé des politiques claires sur l'intégration de l'IA dans la pratique clinique.
"La communauté médicale devra trouver des moyens d'éduquer les médecins et les stagiaires et de guider les patients pour qu'ils adoptent ces outils en toute sécurité", concluent les auteurs de l'étude du BMJ.
Outre l'éducation, la recherche continue, des lignes directrices claires et un engagement en faveur de la sécurité des patients seront essentiels pour tirer parti des avantages de l'IA tout en compensant les risques. Il sera difficile de faire les choses correctement.