Volgens een nieuw onderzoek zijn ethische richtlijnen opvallend afwezig nu AI de gezondheidszorg blijft transformeren, van het ontdekken van medicijnen tot de analyse van medische beelden.
De onderzoek van Joschka Haltaufderheide en Robert Ranisch van de Universiteit van Potsdam, gepubliceerd in njp Digital Communications, analyseerde 53 artikelen om het ethische landschap rond grote taalmodellen (LLM's) in de geneeskunde en gezondheidszorg in kaart te brengen.
Uit het onderzoek bleek dat AI al wordt toegepast in verschillende domeinen van de gezondheidszorg, waaronder:
- Diagnostische beeldvorming
- Ontwikkeling en ontdekking van geneesmiddelen
- Persoonlijke behandelplanning
- Triage en risicobeoordeling van patiënten
- Medisch onderzoek en literatuuranalyse
De recente invloed van AI op de gezondheidszorg en geneeskunde is ronduit spectaculair.
Onlangs nog, onderzoekers bouwden een model voor het vroegtijdig opsporen van Alzheimer dat met 80% nauwkeurigheid kan voorspellen of bij iemand binnen zes jaar de ziekte zal worden vastgesteld.
De eerste AI-gegenereerde geneesmiddelen zijn al op weg naar klinische proeven en AI-gestuurde bloedtests kan kanker detecteren aan de hand van afzonderlijke DNA-moleculen.
Op het gebied van LLM's, OpenAI en Color Health onlangs aangekondigd een systeem om clinici te helpen bij de diagnose en behandeling van kanker.
Hoewel deze ontwikkelingen verbazingwekkend zijn, veroorzaken ze een gevoel van duizeligheid. Zouden de risico's onder de radar verdwijnen?
Als ze specifiek naar LLM's kijken, stellen de onderzoekers: "Met de introductie van ChatGPT hebben grote taalmodellen (LLM's) enorm veel aandacht gekregen in de gezondheidszorg. Ondanks de potentiële voordelen hebben onderzoekers verschillende ethische implicaties benadrukt."
Wat de voordelen betreft: "Voordelen van het gebruik van LLM's worden toegeschreven aan hun capaciteit op het gebied van gegevensanalyse, informatievoorziening, ondersteuning bij besluitvorming of het beperken van informatieverlies en het verbeteren van de toegankelijkheid van informatie."
Ze benadrukken echter ook belangrijke ethische problemen: "Onze studie identificeert ook terugkerende ethische zorgen in verband met eerlijkheid, vooringenomenheid, niet-maleficentie, transparantie en privacy. Een opvallend punt van zorg is de neiging om schadelijke of overtuigende maar onjuiste inhoud te produceren."
Deze kwestie van "hallucinaties", waarbij LLM's plausibele maar feitelijk onjuiste informatieis vooral zorgwekkend in de gezondheidszorg. In het ergste geval kan dit leiden tot verkeerde diagnoses of behandelingen.
AI-ontwikkelaars kunnen vaak niet uitleggen hoe hun modellen werken, wat bekend staat als de "black box probleem," dus deze foutieve gedragingen zijn uitzonderlijk lastig op te lossen.
Het onderzoek geeft aanleiding tot bezorgdheid over vooroordelen bij LLM'swaarbij wordt opgemerkt "Vooringenomen modellen kunnen leiden tot oneerlijke behandeling van achtergestelde groepen, wat leidt tot ongelijke toegang, bestaande ongelijkheden verergert of personen schaadt door selectieve nauwkeurigheid."
Ze halen een specifiek voorbeeld aan van ChatGPT en Foresight NLP die raciale vooroordelen laten zien ten opzichte van zwarte patiënten. A recent onderzoek van Yale vond raciale vooringenomenheid in de manier waarop ChatGPT omging met radiografische beelden wanneer raciale informatie over de scans werd gegeven.
Vooroordelen over minderheidsgroepen zijn welbekend en kunnen verraderlijke gevolgen hebben in de gezondheidszorg.
Privacykwesties vormen een ander risico: "Het verwerken van patiëntgegevens roept ethische vragen op met betrekking tot vertrouwelijkheid, privacy en gegevensbeveiliging."
Om risico's aan te pakken is menselijk toezicht van het grootste belang. De onderzoekers roepen ook op tot het ontwikkelen van universele ethische richtlijnen voor AI in de gezondheidszorg om te voorkomen dat er schadelijke scenario's ontstaan.
Het AI-ethische landschap in de gezondheidszorg breidt zich snel uit naarmate de doorbraken blijven komen.
Onlangs hebben meer dan 100 vooraanstaande wetenschappers een vrijwillig initiatief gelanceerd om de veiligheid van hun producten te verbeteren. regels voor AI-eiwitontwerp, Dit onderstreept hoe de technologie vaak te snel gaat om de veiligheid bij te houden.