Forskere etterlyser etiske retningslinjer når LLM-er spiller en større rolle i helsevesenet

11. juli 2024

  • Etiske bekymringer truer når LLM-utdanningene blir mer integrert i helsevesenet
  • Forskere ved Universitetet i Potsdam etterlyser bedre tilsyn og etiske retningslinjer
  • Personvern, forutinntatthet og hallusinasjoner er kritiske spørsmål for AI i helsevesenet
etikk

Ifølge en ny studie glimrer de etiske retningslinjene med sitt fravær når kunstig intelligens fortsetter å forandre helsevesenet, fra oppdagelse av legemidler til medisinsk bildeanalyse.

Den studie av Joschka Haltaufderheide og Robert Ranisch fra universitetet i Potsdam, publisert i njp Digital Communications, har analysert 53 artikler for å kartlegge det etiske landskapet rundt store språkmodeller (LLM) i medisin og helsevesen.

Den viser at kunstig intelligens allerede er tatt i bruk på ulike helseområder, blant annet

  • Tolkning av bildediagnostikk
  • Utvikling og oppdagelse av legemidler
  • Personlig tilpasset behandlingsplanlegging
  • Pasienttriagering og risikovurdering
  • Medisinsk forskning og litteraturanalyse

Den siste tiden har kunstig intelligens hatt en spektakulær innvirkning på helsevesenet og medisinen.

Helt nylig, forskere bygget en modell for tidlig oppdagelse av Alzheimers, som med 80% nøyaktighet kan forutsi om en person vil bli diagnostisert med sykdommen innen seks år.

Den første KI-genererte legemidler er allerede på vei til kliniske studier, og AI-drevne blodprøver kan oppdage kreft fra enkelt-DNA-molekyler.

Når det gjelder LLM-er, OpenAI og Color Health nylig kunngjort et system for å hjelpe klinikere med kreftdiagnose og -behandling.

Selv om disse fremskrittene er fantastiske, skaper de en følelse av svimmelhet. Kan det hende at risikoen går under radaren?

Forskerne skriver: "Med introduksjonen av ChatGPT har store språkmodeller (Large Language Models, LLM) fått enorm oppmerksomhet i helsevesenet. Til tross for potensielle fordeler har forskere understreket ulike etiske implikasjoner."

Fordelene ved å bruke LLM er at de kan brukes til dataanalyse, informasjonsformidling, støtte i beslutningsprosesser, redusere tap av informasjon og forbedre informasjonstilgjengeligheten."

Men de fremhever også store etiske bekymringer: "Studien vår identifiserer også tilbakevendende etiske bekymringer knyttet til rettferdighet, partiskhet, ikke-feilbarlighet, åpenhet og personvern. En særegen bekymring er tendensen til å produsere skadelig eller overbevisende, men unøyaktig innhold."

Dette problemet med "hallusinasjoner", der LLM-er genererer plausible, men faktuelt uriktige opplysningerer spesielt bekymringsfullt i helsesammenheng. I verste fall kan det føre til feil diagnoser eller behandling.

AI-utviklere kan ofte ikke forklare hvordan modellene deres fungerer, kjent som "black box-problemet", så disse feilene er svært vanskelige å rette opp.

Studien reiser alarmerende bekymringer om skjevheter i LLM-utdanningene, og bemerker "Partiske modeller kan føre til urettferdig behandling av vanskeligstilte grupper, føre til ulik tilgang, forverre eksisterende ulikheter eller skade personer gjennom selektiv nøyaktighet."

De nevner et konkret eksempel på at ChatGPT og Foresight NLP viser rasistisk skjevhet overfor svarte pasienter. A fersk Yale-studie fant rasistisk skjevhet i ChatGPTs håndtering av røntgenbilder når de fikk rasistisk informasjon om bildene.

LLM-fordommer mot minoritetsgrupper er velkjent og kan ha snikende konsekvenser i helsesammenheng.

Personvernhensyn er en annen risiko: "Behandling av pasientdata reiser etiske spørsmål om konfidensialitet, personvern og datasikkerhet."

Når det gjelder å håndtere risiko, er menneskelig tilsyn avgjørende. Forskerne oppfordrer også til å utvikle universelle etiske retningslinjer for kunstig intelligens i helsevesenet for å forhindre at skadelige scenarier utvikler seg.

Det etiske landskapet for kunstig intelligens i helsevesenet utvides raskt etter hvert som gjennombruddene fortsetter å komme.

Nylig lanserte over 100 ledende forskere et frivillig initiativ som beskriver sikkerhet regler for AI-proteindesign, og understreker at teknologien ofte utvikler seg for raskt til at sikkerheten kan holde tritt.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser