Il sistema di intelligenza artificiale di Google, addestrato a condurre interviste mediche, supera i medici umani nelle aree relative al comportamento al letto e all'accuratezza diagnostica.
Sviluppata dai team di DeepMind e Google Research e attualmente pubblicato su ArXivIl chatbot, chiamato Articulate Medical Intelligence Explorer (AMIE), si è distinto nella diagnosi di patologie respiratorie e cardiovascolari, tra le altre.
Ha eguagliato o addirittura superato i medici di base certificati nel raccogliere informazioni sui pazienti durante i colloqui medici e ha ottenuto punteggi più alti in termini di empatia.
Siamo lieti di presentare il nostro nuovo documento di ricerca su AMIE (Articulate Medical Intelligence Explorer), un passo avanti verso l'IA diagnostica conversazionale. @GoogleAI @GoogleHealth @GoogleDeepMindhttps://t.co/KIl1cYjgWO pic.twitter.com/JcPAiNcPgJ
- Mike Schaekermann (@HardyShakerman) 12 gennaio 2024
Una delle sfide principali nello sviluppo di AMIE è stata la scarsità di conversazioni mediche reali per i dati di addestramento.
Per ovviare a questo problema, il team di Google Health, che comprende il ricercatore di intelligenza artificiale Vivek Natarajan, ha creato un metodo che consente al chatbot di impegnarsi in "conversazioni" simulate.
L'intelligenza artificiale è stata addestrata a interpretare i ruoli di un paziente, di un medico empatico e di un critico che valuta l'interazione medico-paziente.
Nei test che hanno coinvolto 20 attori addestrati a simulare i pazienti e 20 medici certificati, AMIE ha costantemente eguagliato o superato l'accuratezza diagnostica dei medici in sei specialità mediche.
Ha superato i medici in 24 dei 26 criteri di qualità della conversazione, come la cortesia e la spiegazione di condizioni e trattamenti.
Alan Karthikesalingam, ricercatore clinico presso Google Health a Londra e coautore dello studio, ha osservato: "A nostra conoscenza, questa è la prima volta che un sistema di IA conversazionale è stato progettato in modo ottimale per il dialogo diagnostico e la raccolta della storia clinica".
Siamo lieti di presentare AMIE (Articulate Medical Intelligence Explorer), il nostro LLM di ricerca per le conversazioni diagnostiche. AMIE ha superato i medici di base nella qualità della conversazione e nell'accuratezza diagnostica in uno studio randomizzato in stile "OSCE virtuale". Preprint ➡️ https://t.co/XZizS9PtDG (1/7) pic.twitter.com/3t8hTkLmO9
- Alan Karthikesalingam (@alan_karthi) 12 gennaio 2024
Tuttavia, Karthikesalingam sottolinea che l'AMIE rimane sperimentale e non è stata testata su pazienti reali, ma solo su attori che ritraggono condizioni mediche fittizie ma plausibili.
Come ha funzionato lo studio
Lo studio intitolato "Towards Conversational Diagnostic AI" presenta AMIE, un LLM progettato per le interazioni medico-diagnostiche.
Ecco ulteriori informazioni su come funziona:
- Sviluppo di AMIE: Articulate Medical Intelligence Explorer (AMIE) è un sistema di intelligenza artificiale basato su un Large Language Model (LLM) creato da Google. È ottimizzato per il dialogo diagnostico in contesti medici. AMIE è stato progettato per emulare il complesso processo di raccolta dell'anamnesi clinica e di ragionamento diagnostico.
- Formazione al dialogo simulato: I ricercatori hanno sviluppato un nuovo ambiente di simulazione di gioco autonomo a causa della mancanza di conversazioni mediche reali per la formazione. Ciò ha permesso all'AMIE di impegnarsi in dialoghi simulati, interpretando diversi ruoli (paziente, medico, critico) per migliorare l'apprendimento. Questi dialoghi coprivano una serie di condizioni mediche, specialità e contesti.
- Strategia di perfezionamento dell'istruzione e catena di ragionamento: AMIE è stato sottoposto a una messa a punto delle istruzioni utilizzando vari insiemi di dati del mondo reale, tra cui risposte a domande mediche, ragionamenti, sintesi e dati di dialogo. Una strategia di ragionamento a catena prevedeva l'analisi delle informazioni sul paziente, la formulazione di risposte e azioni e il perfezionamento delle risposte in base alla conversazione in corso.
- Studio sull'esame clinico strutturato obiettivo (OSCE) a distanza: I ricercatori hanno condotto uno studio crossover randomizzato, in doppio cieco, confrontando l'AMIE con i medici di base (PCP). Lo studio ha utilizzato consultazioni basate su testo con 149 pazienti simulati, interpretati da attori, che hanno affrontato diversi scenari clinici. Sia i medici specialisti che i pazienti attori hanno valutato le prestazioni dell'AMIE e dei PCP.
- Valutazione e risultati: La valutazione si è concentrata sull'accuratezza diagnostica, sul ragionamento gestionale, sulle capacità di comunicazione e sull'empatia. L'AMIE ha dimostrato prestazioni superiori rispetto ai PCP in diverse aree, tra cui l'accuratezza diagnostica e l'empatia.
I ricercatori avvertono che questi risultati devono essere interpretati con leggerezza, per il momento, e sottolineano i limiti dello studio, come l'uso di un'interfaccia di chat testuale e la mancanza di interazioni con i pazienti nel mondo reale.
Tuttavia, segna un progresso verso lo sviluppo di sistemi di intelligenza artificiale in grado di condurre colloqui medici e dialoghi diagnostici.
L'IA generativa nell'assistenza sanitaria è stata un'area di enorme successo, con modelli che hanno avuto successo individuare nuovi antibiotici, migliorare le colonscopie, e simulare le interazioni tra composti e processi biologici.
I modelli di IA potrebbero ora adottare anche ruoli rivolti al paziente?