Una nuova indagine ha rilevato che nel Regno Unito un medico generico (GP) su cinque utilizza strumenti di intelligenza artificiale come ChatGPT per svolgere attività quotidiane come suggerire diagnosi e scrivere lettere ai pazienti.
Il ricercapubblicato sulla rivista BMJ Health and Care Informatics, ha intervistato 1.006 medici di base in tutto il mondo sull'uso dei chatbot AI nella pratica clinica.
Circa 20% hanno dichiarato di utilizzare strumenti di IA generativa, tra cui il ChatGPT è il più diffuso. Tra coloro che utilizzano l'IA, 29% hanno dichiarato di averla impiegata per generare documentazione dopo gli appuntamenti con i pazienti, mentre 28% l'hanno utilizzata per suggerire potenziali diagnosi.
"Questi risultati segnalano che i medici di base possono trarre valore da questi strumenti, in particolare per le attività amministrative e per supportare il ragionamento clinico", hanno osservato gli autori dello studio.
Come ha commentato la dottoressa Charlotte Blease, autrice principale dello studio: "Nonostante la mancanza di indicazioni su questi strumenti e le politiche di lavoro poco chiare, i medici di base riferiscono di utilizzarli come ausilio per il loro lavoro. La comunità medica dovrà trovare il modo di educare i medici e i tirocinanti sui potenziali benefici di questi strumenti nel riassumere le informazioni, ma anche sui rischi in termini di allucinazioni, pregiudizi algoritmici e potenziale compromissione della privacy dei pazienti".
Quest'ultimo punto è fondamentale. Il passaggio di informazioni sui pazienti ai sistemi di intelligenza artificiale costituisce probabilmente una violazione della privacy e della fiducia dei pazienti.
La dottoressa Ellie Mein, consulente medico-legale del sindacato di difesa dei medici, concorda sui punti chiave: "Oltre agli usi identificati nell'articolo del BMJ, abbiamo scoperto che alcuni medici si rivolgono a programmi di intelligenza artificiale per redigere le risposte ai reclami. Abbiamo messo in guardia i membri dell'MDU sui problemi che ciò solleva, tra cui l'imprecisione e la riservatezza dei pazienti. Ci sono anche considerazioni sulla protezione dei dati".
La dottoressa ha aggiunto: "Quando si tratta di reclami di pazienti, le risposte redatte dall'IA possono sembrare plausibili, ma possono contenere imprecisioni e riferimenti a linee guida errate che possono essere difficili da individuare se inserite in passaggi di testo molto eloquenti. È fondamentale che i medici utilizzino l'IA in modo etico e che rispettino le linee guida e le normative in materia".
Non abbiamo idea di quanti articoli OpenAI abbia utilizzato per addestrare i suoi modelli, ma sicuramente sono più di quanti un medico possa aver letto. Fornisce risposte rapide e convincenti ed è molto facile da usare, a differenza della ricerca manuale di articoli di ricerca.
Questo significa che ChatGPT è generalmente accurato per i consigli clinici? No. I modelli linguistici di grandi dimensioni (LLM) come ChatGPT sono pre-addestrati su enormi quantità di dati generali, il che li rende più flessibili ma di dubbia precisione per compiti medici specifici.
I modelli di intelligenza artificiale come ChatGPT possono essere facilmente guidati, e spesso si schierano con le ipotesi dell'utente in modo problematicamente sicofante. Inoltre, i ricercatori hanno notato che questi modelli possono mostrare tendenze eccessivamente conservatrici o prudenti quando affrontano argomenti delicati come la salute sessuale.
Stephen Hughes dell'Università Anglia Ruskin ha scritto su The Conservation, “Ho chiesto a ChatGPT di diagnosticare il dolore durante la minzione e le perdite dai genitali maschili dopo un rapporto sessuale non protetto. Mi ha incuriosito vedere che non ho ricevuto alcuna risposta. Era come se ChatGPT arrossisse in qualche modo timido e computerizzato. Rimuovendo le menzioni dei rapporti sessuali, ChatGPT ha fornito una diagnosi differenziale che includeva la gonorrea, che era la condizione che avevo in mente".
Probabilmente le domande più critiche in mezzo a tutto questo sono: Quanto è accurata la ChatGPT in un contesto medico? E quanto potrebbe essere grande il rischio di diagnosi errate o di altri problemi se questo continua?
IA generativa nella pratica medica
Mentre i medici di base sperimentano sempre più spesso gli strumenti di intelligenza artificiale, i ricercatori stanno lavorando per valutare il loro confronto con i metodi diagnostici tradizionali.
A studio pubblicato in Sistemi esperti con applicazioni ha condotto un'analisi comparativa tra ChatGPT, modelli convenzionali di apprendimento automatico e altri sistemi di IA per le diagnosi mediche.
I ricercatori hanno scoperto che, sebbene ChatGPT si sia dimostrato promettente, è stato spesso superato dai tradizionali modelli di apprendimento automatico addestrati specificamente su set di dati medici. Ad esempio, le reti neurali con perceptron multistrato hanno ottenuto la massima precisione nella diagnosi di malattie basate sui sintomi, con tassi di 81% e 94% su due diversi set di dati.
I ricercatori hanno concluso che, sebbene ChatGPT e strumenti di AI simili mostrino un certo potenziale, "le loro risposte possono essere spesso ambigue e fuori contesto, fornendo così diagnosi errate, anche se viene chiesto di fornire una risposta solo considerando uno specifico insieme di classi".
Questo dato è in linea con altri studi recenti che esaminano il potenziale dell'IA nella pratica medica.
Ad esempio, ricerca pubblicato in JAMA Network Open ha testato la capacità di GPT-4 di analizzare casi di pazienti complessi. Sebbene abbia mostrato risultati promettenti in alcune aree, il GPT-4 commetteva ancora errori, alcuni dei quali potevano essere pericolosi in scenari clinici reali.
Ci sono però alcune eccezioni. Una studio condotto dal New York Eye and Ear Infirmary of Mount Sinai (NYEE) ha dimostrato come il GPT-4 possa raggiungere o superare gli oftalmologi umani nella diagnosi e nel trattamento delle malattie oculari.
Per quanto riguarda il glaucoma, il GPT-4 ha fornito risposte estremamente precise e dettagliate, superiori a quelle di veri oculisti.
Sviluppatori di IA come OpenAI e NVIDIA stanno ora formando assistenti di IA specializzati in campo medico per supportare i medici, compensando le carenze dei modelli di base di frontiera come GP-4.
OpenAI ha già stretto una partnership con società di tecnologia sanitaria Color Health per creare un "copilota" AI per la cura del cancro, dimostrando come questi strumenti siano destinati a diventare più specifici per la pratica clinica.
Ponderazione dei benefici e dei rischi
Esistono innumerevoli studi che confrontano modelli di intelligenza artificiale appositamente addestrati con gli esseri umani nell'identificazione di malattie da immagini diagnostiche come la risonanza magnetica e le radiografie.
Le tecniche di intelligenza artificiale hanno superato i medici in tutto e per tutto. cancro e diagnosi di malattie dell'occhio a Alzheimer e Diagnosi precoce del Parkinson. Un modello di intelligenza artificiale, chiamato "Mia", si è dimostrato efficace nell'analizzare oltre 10.000 scansioni mammografiche, segnalando casi di cancro noti e scoprendo il cancro in 11 donne che i medici non avevano notato.
Tuttavia, questi strumenti di IA appositamente creati non sono certo la stessa cosa che analizzare le note e i risultati in un modello linguistico generico come ChatGPT e chiedergli di dedurre una diagnosi solo da questo.
Tuttavia, la facilità di farlo e di ricevere risposte rapide e informative è una tentazione difficile da resistere.
Non è un segreto che i servizi sanitari siano sovraccarichi. Gli strumenti di intelligenza artificiale fanno risparmiare tempo, ed è questo il fascino che esercitano sui medici oberati di lavoro.
Abbiamo visto che questo si riflette nel settore pubblico, ad esempio nell'istruzione, dove gli insegnanti utilizzano ampiamente l'intelligenza artificiale per creare materiali, contrassegnare i lavori e altro ancora.
Quindi, il vostro medico analizzerà le vostre note in ChatGPT e vi scriverà una prescrizione basata sui risultati per la vostra prossima visita medica? Molto probabilmente. È un altro ambito in cui la promessa della tecnologia AI di risparmiare tempo prezioso è difficile da negare.
Una parte della strada da percorrere sarà quella di sviluppare un codice d'uso per l'IA nello studio medico. La British Medical Association ha già chiesto politiche chiare sull'integrazione dell'IA nella pratica clinica.
"La comunità medica dovrà trovare il modo di educare i medici e i tirocinanti e di guidare i pazienti all'adozione sicura di questi strumenti", concludono gli autori dello studio del BMJ.
Oltre alla formazione, la ricerca continua, le linee guida chiare e l'impegno per la sicurezza dei pazienti saranno essenziali per sfruttare i vantaggi dell'IA e compensare i rischi. Sarà difficile da realizzare.