A IA no consultório médico: Os médicos de clínica geral recorrem ao ChatGPT e a outras ferramentas para efetuar diagnósticos

19 de setembro de 2024

  • Os médicos estão a recorrer ao ChatGPT para ajudar na administração clínica e na tomada de decisões
  • Cerca de 20% de cerca de 1000 médicos de clínica geral no Reino Unido admitiram utilizar ferramentas de IA generativa
  • Isto levanta questões sobre os riscos da IA para a exatidão do diagnóstico e a segurança dos doentes
Medicina de IA

Um novo inquérito revelou que um em cada cinco médicos de clínica geral no Reino Unido está a utilizar ferramentas de IA como o ChatGPT para ajudar nas tarefas diárias, como sugerir diagnósticos e escrever cartas aos doentes. 

O investigaçãopublicado na revista BMJ Health and Care Informatics, inquiriu 1006 médicos de clínica geral sobre a sua utilização de chatbots de IA na prática clínica. 

Cerca de 20% referiram utilizar ferramentas de IA generativa, sendo o ChatGPT a mais popular. Dos que utilizam IA, 29% afirmaram que a utilizavam para gerar documentação após as consultas dos doentes, enquanto 28% a utilizavam para sugerir potenciais diagnósticos.

"Estes resultados indicam que os médicos de clínica geral podem tirar partido destas ferramentas, nomeadamente para tarefas administrativas e para apoiar o raciocínio clínico", referem os autores do estudo. 

Não fazemos ideia de quantos artigos a OpenAI utilizou para treinar os seus modelos, mas é certamente mais do que qualquer médico poderia ter lido. Dá respostas rápidas e convincentes e é muito fácil de utilizar, ao contrário da pesquisa manual de artigos de investigação. 

Isso significa que o ChatGPT é geralmente correto para aconselhamento clínico? De modo algum. Os modelos de linguagem de grande dimensão (LLM) como o ChatGPT são pré-treinados em grandes quantidades de dados gerais, o que os torna mais flexíveis, mas de precisão duvidosa para tarefas médicas específicas.

É fácil induzi-los, com o modelo de IA a tender para o lado das suas suposições num comportamento problematicamente bajulador.

Além disso, alguns investigadores afirmam que os ChatGPT podem ser conservadores ou puritanos quando tratam de temas delicados como a saúde sexual.

Como Stephen Hughes da Universidade Anglia Ruskin escreveu em The Conservation, “Pedi ao ChatGPT para diagnosticar a dor ao urinar e o corrimento dos órgãos genitais masculinos após uma relação sexual desprotegida. Fiquei intrigado ao ver que não recebi qualquer resposta. Foi como se o ChatGPT tivesse corado de uma forma tímida e computorizada. Removendo as menções a relações sexuais, o ChatGPT deu um diagnóstico diferencial que incluía gonorreia, que era a doença que eu tinha em mente." 

Como comentou a Dra. Charlotte Blease, autora principal do estudo: "Apesar da falta de orientação sobre estas ferramentas e de políticas de trabalho pouco claras, os médicos de clínica geral referem que as utilizam para os ajudar no seu trabalho. A comunidade médica terá de encontrar formas de educar os médicos e os estagiários sobre os potenciais benefícios destas ferramentas para resumir a informação, mas também sobre os riscos em termos de alucinações, enviesamentos algorítmicos e o potencial para comprometer a privacidade dos pacientes".

Este último ponto é fundamental. A passagem de informações sobre os doentes para sistemas de IA constitui provavelmente uma violação da privacidade e da confiança dos doentes.

A Dra. Ellie Mein, consultora médico-legal do Sindicato de Defesa Médica, concordou com as questões fundamentais: "Juntamente com as utilizações identificadas no artigo do BMJ, descobrimos que alguns médicos estão a recorrer a programas de IA para os ajudar a redigir respostas a queixas. Alertámos os membros da MDU para as questões que isto levanta, incluindo a imprecisão e a confidencialidade dos doentes. Há também considerações sobre a proteção de dados".

Acrescentou: "Ao lidar com as queixas dos doentes, as respostas redigidas pela IA podem parecer plausíveis, mas podem conter imprecisões e fazer referência a orientações incorrectas que podem ser difíceis de detetar quando tecidas em passagens de texto muito eloquentes. É vital que os médicos utilizem a IA de uma forma ética e cumpram as orientações e regulamentos relevantes."

Provavelmente, as questões mais críticas no meio de tudo isto são: Qual é a precisão do ChatGPT num contexto médico? E quão grandes poderão ser os riscos de diagnósticos incorrectos ou outros problemas se isto continuar?

IA generativa na prática médica

À medida que os médicos de clínica geral experimentam cada vez mais as ferramentas de IA, os investigadores estão a trabalhar para avaliar a sua comparação com os métodos de diagnóstico tradicionais. 

A estudo publicado em Sistemas Periciais com Aplicações efectuou uma análise comparativa entre o ChatGPT, os modelos convencionais de aprendizagem automática e outros sistemas de IA para diagnósticos médicos.

Os investigadores descobriram que, embora o ChatGPT se mostrasse promissor, era frequentemente ultrapassado por modelos tradicionais de aprendizagem automática especificamente treinados em conjuntos de dados médicos. Por exemplo, as redes neurais perceptron de várias camadas obtiveram a maior precisão no diagnóstico de doenças com base em sintomas, com taxas de 81% e 94% em dois conjuntos de dados diferentes.

Os investigadores concluíram que, embora o ChatGPT e ferramentas de IA semelhantes mostrem potencial, "as suas respostas podem ser frequentemente ambíguas e fora de contexto, fornecendo assim diagnósticos incorrectos, mesmo que seja pedido que forneça uma resposta apenas considerando um conjunto específico de classes".

Este facto está de acordo com outros estudos recentes que examinam o potencial da IA na prática médica.

Por exemplo, investigação publicado em JAMA O Network Open testou a capacidade do GPT-4 para analisar casos de pacientes complexos. Embora tenha mostrado resultados promissores em algumas áreas, o GPT-4 ainda cometeu erros, alguns dos quais podem ser perigosos em cenários clínicos reais.

No entanto, há algumas excepções. Uma estudo conduzido pelo New York Eye and Ear Infirmary of Mount Sinai (NYEE) demonstrou como o GPT-4 pode igualar ou exceder os oftalmologistas humanos no diagnóstico e tratamento de doenças oculares.

Para o glaucoma, o GPT-4 forneceu respostas altamente precisas e pormenorizadas que excederam as dos verdadeiros especialistas da visão. 

Os criadores de IA, como a OpenAI e a NVIDIA, estão a treinar assistentes de IA médica especificamente concebidos para apoiar os médicos, o que, espera-se, compense as deficiências dos modelos de fronteira de base como o GP-4.

A OpenAI já estabeleceu uma parceria com empresa de tecnologia da saúde Color Health para criar um "copiloto" de IA para os cuidados oncológicos, demonstrando como estas ferramentas estão preparadas para se tornarem mais específicas da prática clínica.  

Ponderação dos benefícios e dos riscos

Existem inúmeros estudos que comparam modelos de IA especialmente treinados com humanos na identificação de doenças a partir de imagens de diagnóstico, como a ressonância magnética e os raios X. 

As técnicas de IA superaram os médicos em tudo, desde cancro e diagnóstico de doenças oculares para Alzheimer e Deteção precoce da doença de Parkinson. Um deles, chamado "Mia", provou ser eficaz na análise de mais de 10.000 mamografias, assinalando casos de cancro conhecidos e descobrindo cancro em 11 mulheres que os médicos não tinham detectado. 

No entanto, estas ferramentas de IA criadas para o efeito não são certamente o mesmo que analisar notas e resultados num modelo linguístico como o ChatGPT e pedir-lhe que deduza um diagnóstico apenas com base nisso. 

No entanto, é difícil resistir a essa tentação. Não é segredo que os serviços de saúde estão sobrecarregados. Os tempos de espera no SNS continuam a atingir máximos históricos e, nalgumas zonas, até a obtenção de consultas no médico de família é uma tarefa árdua. 

As ferramentas de IA têm como objetivo a administração morosa, tal é o seu fascínio para os médicos sobrecarregados. Vimos isto espelhar-se em várias áreas do sector público, como a educação, onde os professores estão a utilizar amplamente a IA para criar materiais, marcar trabalhos e muito mais. 

Então, o seu médico vai analisar as suas notas no ChatGPT e passar-lhe uma receita com base nos resultados para a sua próxima consulta médica? É bem possível. É apenas mais uma fronteira em que a promessa da tecnologia de poupar tempo é tão difícil de negar. 

O melhor caminho a seguir poderá ser o desenvolvimento de um código de utilização. A Associação Médica Britânica apelou à adoção de políticas claras sobre a integração da IA na prática clínica.

"A comunidade médica terá de encontrar formas de educar os médicos e os estagiários e de orientar os doentes sobre a adoção segura destas ferramentas", concluíram os autores do estudo BMJ.

Para além do aconselhamento e da educação, a investigação contínua, as diretrizes claras e o compromisso com a segurança dos doentes serão essenciais para concretizar os benefícios da IA e compensar os riscos.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições