Secondo un nuovo studio, le linee guida etiche sono decisamente assenti mentre l'IA continua a trasformare l'assistenza sanitaria, dalla scoperta di farmaci all'analisi delle immagini mediche.
Il studio di Joschka Haltaufderheide e Robert Ranisch dell'Università di Potsdam, pubblicato su njp Digital Communications, ha analizzato 53 articoli per tracciare il panorama etico che circonda i modelli linguistici di grandi dimensioni (LLM) in medicina e nell'assistenza sanitaria.
L'analisi ha rilevato che l'IA viene già impiegata in vari settori dell'assistenza sanitaria, tra cui:
- Interpretazione della diagnostica per immagini
- Sviluppo e scoperta di farmaci
- Pianificazione personalizzata del trattamento
- Triage del paziente e valutazione del rischio
- Ricerca medica e analisi della letteratura
I recenti impatti dell'intelligenza artificiale sull'assistenza sanitaria e sulla medicina sono a dir poco spettacolari.
Di recente, i ricercatori hanno costruito un modello per la diagnosi precoce dell'Alzheimer, in grado di prevedere con precisione 80% se a qualcuno verrà diagnosticata la malattia entro sei anni.
Il primo Farmaci generati dall'intelligenza artificiale sono già in fase di sperimentazione clinica e Analisi del sangue potenziate dall'intelligenza artificiale può rilevare il cancro da singole molecole di DNA.
In termini di LLM, OpenAI e Color Health recentemente annunciato un sistema per aiutare i medici nella diagnosi e nel trattamento del cancro.
Pur essendo sorprendenti, questi progressi stanno creando un senso di vertigine. I rischi potrebbero passare inosservati?
Guardando specificamente agli LLM, i ricercatori affermano: "Con l'introduzione della ChatGPT, i modelli linguistici di grandi dimensioni (LLM) hanno ricevuto un'enorme attenzione in ambito sanitario. Nonostante i potenziali vantaggi, i ricercatori hanno sottolineato diverse implicazioni etiche".
Per quanto riguarda i vantaggi: "I vantaggi dell'uso dei LLM sono attribuiti alla loro capacità di analisi dei dati, alla fornitura di informazioni, al supporto nel processo decisionale o alla mitigazione della perdita di informazioni e al miglioramento dell'accessibilità delle informazioni".
Tuttavia, evidenziano anche le principali preoccupazioni etiche: "Il nostro studio identifica anche preoccupazioni etiche ricorrenti legate all'equità, alla parzialità, alla non-maleficenza, alla trasparenza e alla privacy. Una preoccupazione peculiare è la tendenza a produrre contenuti dannosi o convincenti ma imprecisi".
Questo problema delle "allucinazioni", in cui i LLM generano immagini plausibili ma informazioni di fatto non corretteè particolarmente preoccupante in un contesto sanitario. Nel peggiore dei casi, potrebbe portare a diagnosi o trattamenti errati.
Gli sviluppatori di IA spesso non sono in grado di spiegare come funzionano i loro modelli, il cosiddetto "problema della scatola nera," quindi questi comportamenti errati sono eccezionalmente difficili da correggere.
Lo studio solleva preoccupazioni allarmanti sui pregiudizi nei corsi di laurea magistrale, osservando che: "I modelli distorti possono determinare un trattamento iniquo dei gruppi svantaggiati, portando a disparità di accesso, esacerbando le disuguaglianze esistenti o danneggiando le persone attraverso un'accuratezza selettiva".
Citano un esempio specifico di ChatGPT e Foresight NLP che mostrano pregiudizi razziali nei confronti dei pazienti neri. A recente studio di Yale ha riscontrato pregiudizi razziali nella gestione delle immagini radiografiche da parte del ChatGPT quando gli sono state fornite informazioni razziali sulle scansioni.
I pregiudizi dei LLM nei confronti dei gruppi di minoranza sono ben noti e possono avere conseguenze insidiose nel contesto sanitario.
Un altro rischio è rappresentato dai problemi di privacy: "L'elaborazione dei dati dei pazienti solleva questioni etiche relative alla riservatezza, alla privacy e alla sicurezza dei dati".
Per affrontare i rischi, la supervisione umana è fondamentale. I ricercatori chiedono inoltre di sviluppare linee guida etiche universali sull'IA in campo sanitario per evitare che si sviluppino scenari dannosi.
Il panorama dell'etica dell'IA nell'assistenza sanitaria si sta espandendo rapidamente grazie alle continue scoperte.
Di recente, oltre 100 scienziati di spicco hanno lanciato un'iniziativa volontaria che delinea la sicurezza regole per la progettazione di proteine AI, sottolineando come la tecnologia si muova spesso troppo velocemente perché la sicurezza possa tenere il passo.