Enligt en ny studie lyser etiska riktlinjer med sin frånvaro när AI fortsätter att förändra sjukvården, från läkemedelsupptäckt till medicinsk bildanalys.
Den studie av Joschka Haltaufderheide och Robert Ranisch från University of Potsdam, publicerad i njp Digital Communications, analyserade 53 artiklar för att kartlägga det etiska landskapet kring stora språkmodeller (LLM) inom medicin och sjukvård.
Det visade sig att AI redan används inom olika sjukvårdsområden, bland annat:
- Tolkning av diagnostisk bildbehandling
- Utveckling och upptäckt av läkemedel
- Personlig behandlingsplanering
- Triagering och riskbedömning av patienter
- Medicinsk forskning och litteraturanalys
AI:s inverkan på hälso- och sjukvården och medicinen är inget annat än spektakulär.
Alldeles nyligen, Forskarna byggde en modell för tidig upptäckt av Alzheimers sjukdom som med 80% noggrannhet kan förutsäga om någon kommer att diagnostiseras med sjukdomen inom sex år.
Den första AI-genererade läkemedel är redan på väg till kliniska prövningar, och AI-drivna blodprov kan upptäcka cancer från enstaka DNA-molekyler.
När det gäller LLM, OpenAI och Color Health nyligen meddelat ett system för att hjälpa kliniker med diagnos och behandling av cancer.
Samtidigt som dessa framsteg är fantastiska skapar de en känsla av svindel. Kan riskerna glida under radarn?
När forskarna tittar specifikt på LLM:er konstaterar de: "I och med introduktionen av ChatGPT har Large Language Models (LLM:er) fått enorm uppmärksamhet inom sjukvården. Trots de potentiella fördelarna har forskare betonat olika etiska konsekvenser."
På nyttosidan: "Fördelarna med att använda LLM tillskrivs deras kapacitet att analysera data, tillhandahålla information, stödja beslutsfattande eller minska informationsförlust och förbättra informationstillgängligheten."
Men de lyfter också fram stora etiska problem: "Vår studie identifierar också återkommande etiska problem kopplade till rättvisa, partiskhet, icke-maleficence, transparens och integritet. Ett utmärkande problem är tendensen att producera skadligt eller övertygande men felaktigt innehåll."
Frågan om "hallucinationer", där LLM:er genererar trovärdiga men faktamässigt felaktig informationär särskilt oroande i vårdsammanhang. I värsta fall kan det leda till felaktiga diagnoser eller behandlingar.
AI-utvecklare kan ofta inte förklara hur deras modeller fungerar, vilket kallas för "black box-problem", så dessa felaktiga beteenden är exceptionellt svåra att åtgärda.
Studien ger upphov till alarmerande farhågor om partiskhet i LLM-utbildningaroch noterar följande "Fördomsfulla modeller kan leda till orättvis behandling av missgynnade grupper, vilket leder till skillnader i tillgång, förvärrar befintliga ojämlikheter eller skadar personer genom selektiv noggrannhet."
De nämner ett specifikt exempel på ChatGPT och Foresight NLP som visar rasistiska fördomar mot svarta patienter. A ny Yale-studie fann rasistiska fördomar i ChatGPT:s hantering av radiografiska bilder när de fick rasistisk information om skanningarna.
Fördomar mot minoritetsgrupper inom LLM är välkända och kan få försåtliga konsekvenser i vårdsammanhang.
Integritetsfrågor är en annan risk: "Behandling av patientdata väcker etiska frågor om konfidentialitet, integritet och datasäkerhet."
När det gäller att hantera risker är mänsklig tillsyn av yttersta vikt. Forskarna efterlyser också universella etiska riktlinjer för AI inom vården för att förhindra att skadliga scenarier utvecklas.
Det etiska AI-landskapet inom sjukvården expanderar snabbt i takt med att genombrotten fortsätter att rulla in.
Nyligen lanserade över 100 ledande forskare ett frivilligt initiativ som beskriver säkerhets regler för AI-proteindesign, vilket understryker att tekniken ofta utvecklas för snabbt för att säkerheten ska hinna med.