L'intelligenza artificiale nello studio medico: I medici di base si rivolgono a ChatGPT e ad altri strumenti per le diagnosi

19 settembre 2024

  • I medici si rivolgono a ChatGPT per avere un aiuto nell'amministrazione clinica e nel processo decisionale.
  • Ben 20% di circa 1000 medici di base nel Regno Unito hanno ammesso di utilizzare strumenti di IA generativa.
  • Ciò solleva interrogativi sui rischi dell'IA per l'accuratezza diagnostica e la sicurezza dei pazienti.
Medicina AI

Una nuova indagine ha rilevato che nel Regno Unito un medico generico (GP) su cinque utilizza strumenti di intelligenza artificiale come ChatGPT per svolgere attività quotidiane come suggerire diagnosi e scrivere lettere ai pazienti. 

Il ricercapubblicato sulla rivista BMJ Health and Care Informatics, ha intervistato 1.006 medici di base in tutto il mondo sull'uso dei chatbot AI nella pratica clinica. 

Circa 20% hanno dichiarato di utilizzare strumenti di IA generativa, tra cui il ChatGPT è il più diffuso. Tra coloro che utilizzano l'IA, 29% hanno dichiarato di averla impiegata per generare documentazione dopo gli appuntamenti con i pazienti, mentre 28% l'hanno utilizzata per suggerire potenziali diagnosi.

"Questi risultati segnalano che i medici di base possono trarre valore da questi strumenti, in particolare per le attività amministrative e per supportare il ragionamento clinico", hanno osservato gli autori dello studio. 

Non abbiamo idea di quanti articoli OpenAI abbia utilizzato per addestrare i suoi modelli, ma sicuramente sono più di quanti un medico possa aver letto. Fornisce risposte rapide e convincenti ed è molto facile da usare, a differenza della ricerca manuale di articoli di ricerca. 

Questo significa che ChatGPT è generalmente accurato per i consigli clinici? Assolutamente no. I modelli linguistici di grandi dimensioni (LLM) come ChatGPT sono pre-addestrati su enormi quantità di dati generali, il che li rende più flessibili ma di dubbia precisione per compiti medici specifici.

È facile illuderli, con il modello di IA che tende a schierarsi con le vostre ipotesi in un comportamento problematicamente sicofante.

Inoltre, alcuni ricercatori affermano che i ChatGPT possono essere conservatori o puritani quando trattano argomenti delicati come la salute sessuale.

Come spiega Stephen Hughes dell'Università Anglia Ruskin ha scritto su The Conservation, “Ho chiesto a ChatGPT di diagnosticare il dolore durante la minzione e le perdite dai genitali maschili dopo un rapporto sessuale non protetto. Mi ha incuriosito vedere che non ho ricevuto alcuna risposta. Era come se ChatGPT arrossisse in qualche modo timido e computerizzato. Rimuovendo le menzioni dei rapporti sessuali, ChatGPT ha fornito una diagnosi differenziale che includeva la gonorrea, che era la condizione che avevo in mente". 

Come ha commentato la dottoressa Charlotte Blease, autrice principale dello studio: "Nonostante la mancanza di indicazioni su questi strumenti e le politiche di lavoro poco chiare, i medici di base riferiscono di utilizzarli come ausilio per il loro lavoro. La comunità medica dovrà trovare il modo di educare i medici e i tirocinanti sui potenziali benefici di questi strumenti nel riassumere le informazioni, ma anche sui rischi in termini di allucinazioni, pregiudizi algoritmici e potenziale compromissione della privacy dei pazienti".

Quest'ultimo punto è fondamentale. Il passaggio di informazioni sui pazienti ai sistemi di intelligenza artificiale costituisce probabilmente una violazione della privacy e della fiducia dei pazienti.

La dottoressa Ellie Mein, consulente medico-legale del sindacato di difesa dei medici, concorda sui punti chiave: "Oltre agli usi identificati nell'articolo del BMJ, abbiamo scoperto che alcuni medici si rivolgono a programmi di intelligenza artificiale per redigere le risposte ai reclami. Abbiamo messo in guardia i membri dell'MDU sui problemi che ciò solleva, tra cui l'imprecisione e la riservatezza dei pazienti. Ci sono anche considerazioni sulla protezione dei dati".

La dottoressa ha aggiunto: "Quando si tratta di reclami di pazienti, le risposte redatte dall'IA possono sembrare plausibili, ma possono contenere imprecisioni e riferimenti a linee guida errate che possono essere difficili da individuare se inserite in passaggi di testo molto eloquenti. È fondamentale che i medici utilizzino l'IA in modo etico e che rispettino le linee guida e le normative in materia".

Probabilmente le domande più critiche in mezzo a tutto questo sono: Quanto è accurata la ChatGPT in un contesto medico? E quanto potrebbe essere grande il rischio di diagnosi errate o di altri problemi se questo continua?

IA generativa nella pratica medica

Mentre i medici di base sperimentano sempre più spesso gli strumenti di intelligenza artificiale, i ricercatori stanno lavorando per valutare il loro confronto con i metodi diagnostici tradizionali. 

A studio pubblicato in Sistemi esperti con applicazioni ha condotto un'analisi comparativa tra ChatGPT, modelli convenzionali di apprendimento automatico e altri sistemi di IA per le diagnosi mediche.

I ricercatori hanno scoperto che, sebbene ChatGPT si sia dimostrato promettente, è stato spesso superato dai tradizionali modelli di apprendimento automatico addestrati specificamente su set di dati medici. Ad esempio, le reti neurali con perceptron multistrato hanno ottenuto la massima precisione nella diagnosi di malattie basate sui sintomi, con tassi di 81% e 94% su due diversi set di dati.

I ricercatori hanno concluso che, sebbene ChatGPT e strumenti di AI simili mostrino un certo potenziale, "le loro risposte possono essere spesso ambigue e fuori contesto, fornendo così diagnosi errate, anche se viene chiesto di fornire una risposta solo considerando uno specifico insieme di classi".

Questo dato è in linea con altri studi recenti che esaminano il potenziale dell'IA nella pratica medica.

Ad esempio, ricerca pubblicato in JAMA Network Open ha testato la capacità di GPT-4 di analizzare casi di pazienti complessi. Sebbene abbia mostrato risultati promettenti in alcune aree, il GPT-4 commetteva ancora errori, alcuni dei quali potevano essere pericolosi in scenari clinici reali.

Ci sono però alcune eccezioni. Una studio condotto dal New York Eye and Ear Infirmary of Mount Sinai (NYEE) ha dimostrato come il GPT-4 possa raggiungere o superare gli oftalmologi umani nella diagnosi e nel trattamento delle malattie oculari.

Per quanto riguarda il glaucoma, il GPT-4 ha fornito risposte estremamente precise e dettagliate, superiori a quelle di veri oculisti. 

Sviluppatori di IA come OpenAI e NVIDIA stanno formando assistenti di IA medica appositamente creati per supportare i medici, sperando di compensare le carenze dei modelli di base di frontiera come GP-4.

OpenAI ha già stretto una partnership con società di tecnologia sanitaria Color Health per creare un "copilota" AI per la cura del cancro, dimostrando come questi strumenti siano destinati a diventare più specifici per la pratica clinica.  

Ponderazione dei benefici e dei rischi

Esistono innumerevoli studi che confrontano modelli di intelligenza artificiale appositamente addestrati con gli esseri umani nell'identificazione di malattie da immagini diagnostiche come la risonanza magnetica e le radiografie. 

Le tecniche di intelligenza artificiale hanno superato i medici in tutto e per tutto. cancro e diagnosi di malattie dell'occhio a Alzheimer e Diagnosi precoce del Parkinson. Una, chiamata "Mia", si è dimostrata efficace nell'analizzare oltre 10.000 scansioni mammografiche, segnalando casi di cancro noti e scoprendo il cancro in 11 donne che i medici non avevano notato. 

Tuttavia, questi strumenti di IA appositamente creati non sono certo la stessa cosa che analizzare le note e i risultati in un modello linguistico come ChatGPT e chiedergli di dedurre una diagnosi solo da questo. 

Tuttavia, è una tentazione difficile da resistere. Non è un segreto che i servizi sanitari siano sovraccarichi. I tempi di attesa del Servizio sanitario nazionale continuano a salire ai massimi storici e persino ottenere appuntamenti dal medico di famiglia in alcune aree è un compito arduo. 

Gli strumenti di Intelligenza Artificiale si rivolgono alle attività amministrative che richiedono molto tempo, e questo è il fascino che esercitano sui medici oberati di lavoro. Abbiamo visto che questo fenomeno si riflette in numerosi settori pubblici, come quello dell'istruzione, dove gli insegnanti utilizzano ampiamente l'IA per creare materiali, contrassegnare i lavori e altro ancora. 

Quindi, il vostro medico analizzerà le vostre note in ChatGPT e vi scriverà una prescrizione basata sui risultati per la vostra prossima visita medica? Probabilmente sì. È solo un'altra frontiera in cui la promessa della tecnologia di risparmiare tempo è difficile da negare. 

La strada migliore da percorrere potrebbe essere quella di sviluppare un codice d'uso. La British Medical Association ha chiesto politiche chiare sull'integrazione dell'IA nella pratica clinica.

"La comunità medica dovrà trovare il modo di educare i medici e i tirocinanti e di guidare i pazienti all'adozione sicura di questi strumenti", concludono gli autori dello studio del BMJ.

Oltre alla consulenza e all'educazione, la ricerca continua, le linee guida chiare e l'impegno per la sicurezza dei pazienti saranno essenziali per sfruttare i vantaggi dell'IA e compensare i rischi.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni