Le système d'IA de Google, formé pour mener des entretiens médicaux, surpasse les médecins humains dans des domaines tels que le comportement au chevet du patient et la précision du diagnostic.
Développée par des équipes de DeepMind et de Google Research, elle est actuellement en cours de développement. publié sur ArXivLe chatbot, baptisé Articulate Medical Intelligence Explorer (AMIE), a excellé dans le diagnostic des affections respiratoires et cardiovasculaires, entre autres.
Il a égalé, voire dépassé, les médecins de premier recours certifiés par le conseil d'administration dans la collecte d'informations sur les patients au cours des entretiens médicaux et a obtenu de meilleurs résultats en matière d'empathie.
Nous avons le plaisir de vous présenter notre nouvel article de recherche sur AMIE (Articulate Medical Intelligence Explorer), une étape vers l'IA conversationnelle de diagnostic par le biais d'un système d'aide à la décision. @GoogleAI @GoogleHealth @GoogleDeepMindhttps://t.co/KIl1cYjgWO pic.twitter.com/JcPAiNcPgJ
- Mike Schaekermann (@HardyShakerman) 12 janvier 2024
L'un des principaux défis posés par le développement d'AMIE était la rareté des conversations médicales réelles pour les données de formation.
Pour y remédier, l'équipe de Google Health, dont le chercheur en IA Vivek Natarajan, a mis au point une méthode permettant au chatbot d'engager des "conversations" simulées.
L'IA a été entraînée à jouer le rôle d'un patient, d'un clinicien empathique et d'un critique évaluant l'interaction médecin-patient.
Lors de tests impliquant 20 acteurs formés pour simuler des patients et 20 cliniciens certifiés, AMIE a systématiquement égalé ou dépassé la précision diagnostique des médecins dans six spécialités médicales.
Il a surpassé les médecins dans 24 des 26 critères de qualité de la conversation, comme la politesse et l'explication des conditions et des traitements.
Alan Karthikesalingam, chercheur clinicien chez Google Health à Londres et coauteur de l'étude, a déclaré : "À notre connaissance, c'est la première fois qu'un système d'IA conversationnelle est conçu de manière optimale pour le dialogue diagnostique et la prise en compte des antécédents cliniques."
Nous sommes heureux de vous présenter AMIE (Articulate Medical Intelligence Explorer), notre programme de recherche LLM pour les conversations diagnostiques. AMIE a surpassé les médecins de premier recours en termes de qualité de la conversation et de précision du diagnostic dans le cadre d'une étude randomisée de type "OSCE virtuel". Préprint ➡️ https://t.co/XZizS9PtDG (1/7) pic.twitter.com/3t8hTkLmO9
- Alan Karthikesalingam (@alan_karthi) 12 janvier 2024
Cependant, Karthikesalingam souligne que l'AMIE reste expérimentale et n'a pas été testée sur de vrais patients, mais seulement sur des acteurs représentant des conditions médicales fictives mais plausibles.
Fonctionnement de l'étude
L'étude intitulée "Towards Conversational Diagnostic AI" présente AMIE, un LLM conçu pour les interactions de diagnostic médical.
Voici plus d'informations sur son fonctionnement :
- Développement de l'AMIE: Articulate Medical Intelligence Explorer (AMIE) est un système d'intelligence artificielle basé sur un grand modèle de langage (LLM) créé par Google. Il est optimisé pour le dialogue diagnostique dans les contextes médicaux. AMIE a été conçu pour émuler le processus complexe de recueil des antécédents cliniques et de raisonnement diagnostique.
- Formation au dialogue simulé: Les chercheurs ont mis au point un nouvel environnement simulé d'auto-jeu en raison du manque de conversations médicales réelles pour la formation. Cela a permis à AMIE de s'engager dans des dialogues simulés, en jouant différents rôles (patient, médecin, critique) pour améliorer l'apprentissage. Ces dialogues couvraient un éventail de conditions médicales, de spécialités et de contextes.
- Ajustement de l'instruction et stratégie de raisonnement en chaîne: AMIE a fait l'objet d'une mise au point des instructions à l'aide de divers ensembles de données réelles, y compris des réponses à des questions médicales, des raisonnements, des résumés et des données de dialogue. Une stratégie de raisonnement en chaîne a consisté à analyser les informations relatives au patient, à formuler des réponses et des actions, et à affiner les réponses en fonction de la conversation en cours.
- Examen clinique objectif structuré à distance (OSCE): Les chercheurs ont mené une étude croisée randomisée en double aveugle comparant l'AMIE aux médecins de soins primaires (PCP). Cette étude s'est appuyée sur des consultations textuelles avec 149 patients simulés, interprétés par des acteurs dans le cadre de divers scénarios cliniques. Les médecins spécialistes et les patients acteurs ont évalué les performances de l'AMIE et des médecins de premier recours.
- Évaluation et résultats: L'évaluation s'est concentrée sur la précision du diagnostic, le raisonnement de gestion, les compétences de communication et l'empathie. L'AMIE a démontré des performances supérieures à celles des PCP dans plusieurs domaines, notamment la précision du diagnostic et l'empathie.
Les chercheurs précisent que ces résultats doivent être interprétés avec prudence pour l'instant, en soulignant les limites de l'étude, telles que l'utilisation d'une interface de chat textuel et l'absence d'interactions avec des patients en situation réelle.
Cependant, il marque un progrès dans le développement de systèmes d'IA capables de mener des entretiens médicaux et des dialogues de diagnostic.
L'IA générative dans le domaine de la santé a connu un succès considérable, avec des modèles qui ont réussi à s'imposer dans le monde entier. recherche de nouveaux antibiotiques, améliorer les coloscopieset la simulation d'interactions entre les composés et les processus biologiques.
Les modèles d'IA pourraient-ils désormais également adopter des rôles en contact avec les patients ?