Cientistas apelam a directrizes éticas à medida que os LLM desempenham um papel mais importante nos cuidados de saúde

11 de julho de 2024

  • Preocupações éticas à medida que os LLM se vão integrando mais profundamente nos cuidados de saúde
  • Investigadores da Universidade de Potsdam apelam a uma maior supervisão e a directrizes éticas
  • Privacidade, preconceitos e alucinações são questões críticas para a IA nos cuidados de saúde
ética

De acordo com um novo estudo, as directrizes éticas estão claramente ausentes à medida que a IA continua a transformar os cuidados de saúde, desde a descoberta de medicamentos até à análise de imagens médicas.

O estudo de Joschka Haltaufderheide e Robert Ranisch da Universidade de Potsdam, publicado na njp Digital Communications, analisou 53 artigos para traçar o panorama ético em torno dos grandes modelos de linguagem (LLM) na medicina e nos cuidados de saúde.

Verificou-se que a IA já está a ser utilizada em vários domínios dos cuidados de saúde, incluindo:

  • Interpretação de diagnóstico por imagem
  • Desenvolvimento e descoberta de medicamentos
  • Planeamento de tratamento personalizado
  • Triagem de doentes e avaliação dos riscos
  • Investigação médica e análise bibliográfica

Os recentes impactos da IA nos cuidados de saúde e na medicina são espectaculares.

Ainda recentemente, os investigadores construíram um modelo para a deteção precoce da doença de Alzheimer que pode prever com uma precisão de 80% se alguém será diagnosticado com a doença no prazo de seis anos.

O primeiro Medicamentos gerados por IA já estão a ser submetidos a ensaios clínicos, e Análises ao sangue com recurso à IA pode detetar o cancro a partir de moléculas individuais de ADN.

Em termos de LLM, a OpenAI e a Color Health recentemente anunciado um sistema para ajudar os médicos no diagnóstico e tratamento do cancro.

Embora surpreendentes, estes avanços estão a criar uma sensação de vertigem. Poderão os riscos estar a passar despercebidos?

Analisando especificamente os LLM, os investigadores afirmam: "Com a introdução do ChatGPT, os modelos de linguagem de grande dimensão (LLM) têm recebido uma enorme atenção nos cuidados de saúde. Apesar dos potenciais benefícios, os investigadores sublinharam várias implicações éticas."

Quanto aos benefícios: "As vantagens da utilização de LLM são atribuídas à sua capacidade de análise de dados, fornecimento de informação, apoio à tomada de decisões ou atenuação da perda de informação e melhoria da acessibilidade da informação".

No entanto, também destacam as principais preocupações éticas: "O nosso estudo também identifica preocupações éticas recorrentes relacionadas com a equidade, a parcialidade, a não maleficência, a transparência e a privacidade. Uma preocupação distintiva é a tendência para produzir conteúdos prejudiciais ou convincentes mas inexactos."

Esta questão das "alucinações", em que os LLMs geram alucinações plausíveis mas informações factualmente incorrectasO facto de a informação não ser clara, é particularmente preocupante num contexto de cuidados de saúde. Nos piores casos, pode resultar em diagnósticos ou tratamentos incorrectos.

Muitas vezes, os criadores de IA não conseguem explicar como é que os seus modelos funcionam, o que é conhecido como "problema da caixa negrapor isso, estes comportamentos errados são excecionalmente difíceis de corrigir.

O estudo levanta preocupações alarmantes sobre o preconceito nos LLMs, observando que: "Os modelos tendenciosos podem resultar num tratamento injusto de grupos desfavorecidos, conduzindo a disparidades no acesso, exacerbando as desigualdades existentes ou prejudicando as pessoas através de uma precisão selectiva."

Citam um exemplo específico do ChatGPT e do Foresight NLP que revela um preconceito racial em relação aos doentes negros. A estudo recente de Yale encontrou preconceitos raciais no tratamento de imagens de radiografia pelo ChatGPT, quando lhe foi dada informação racial sobre os exames.

O preconceito dos LLM em relação a grupos minoritários é bem conhecido e pode ter consequências insidiosas num contexto de cuidados de saúde.

As preocupações com a privacidade são outro risco: "O processamento dos dados dos doentes levanta questões éticas relacionadas com a confidencialidade, a privacidade e a segurança dos dados.

Em termos de abordagem dos riscos, a supervisão humana é fundamental. Os investigadores apelam também ao desenvolvimento de directrizes éticas universais sobre a IA nos cuidados de saúde para evitar o desenvolvimento de cenários prejudiciais.

O panorama ético da IA nos cuidados de saúde está a expandir-se rapidamente à medida que as descobertas continuam a chegar.

Recentemente, mais de 100 cientistas de renome lançaram uma iniciativa voluntária que define a segurança regras para a conceção de proteínas por IA, sublinhando o facto de a tecnologia estar muitas vezes a avançar demasiado depressa para que a segurança possa acompanhar o ritmo.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições