O sistema de IA da Google, treinado para conduzir entrevistas médicas, ultrapassa os médicos humanos em áreas relacionadas com a postura ao lado do doente e a precisão do diagnóstico.
Desenvolvido por equipas da DeepMind e da Google Research e atualmente publicado no ArXivO chatbot, denominado Articulate Medical Intelligence Explorer (AMIE), destacou-se no diagnóstico de doenças respiratórias e cardiovasculares, entre outras.
O seu desempenho foi idêntico ou mesmo superior ao dos médicos de cuidados primários certificados na recolha de informações sobre os doentes durante as entrevistas médicas e foi superior em termos de empatia.
É com prazer que apresentamos o nosso novo trabalho de investigação sobre o AMIE (Articulate Medical Intelligence Explorer), um passo em direção à IA de diagnóstico conversacional por @GoogleAI @GoogleHealth @GoogleDeepMindhttps://t.co/KIl1cYjgWO pic.twitter.com/JcPAiNcPgJ
- Mike Schaekermann (@HardyShakerman) 12 de janeiro de 2024
Um dos principais desafios no desenvolvimento da AMIE foi a escassez de conversas médicas do mundo real para dados de treino.
Para ultrapassar este problema, a equipa do Google Health, incluindo o cientista de investigação em IA Vivek Natarajan, criou um método que permite ao chatbot participar em "conversas" simuladas.
A IA foi treinada para desempenhar os papéis de um doente, de um médico empático e de um crítico que avalia a interação médico-doente.
Em testes que envolveram 20 actores treinados para simular pacientes e 20 médicos certificados, a AMIE igualou ou ultrapassou consistentemente a precisão do diagnóstico dos médicos em seis especialidades médicas.
Superou os médicos em 24 dos 26 critérios de qualidade de conversação, como a cortesia e a explicação de doenças e tratamentos.
Alan Karthikesalingam, cientista de investigação clínica na Google Health em Londres e coautor do estudo, observou: "Tanto quanto sabemos, esta é a primeira vez que um sistema de IA conversacional foi concebido de forma optimizada para o diálogo de diagnóstico e para a recolha do historial clínico".
Temos o prazer de apresentar o AMIE (Articulate Medical Intelligence Explorer), o nosso LLM de investigação para conversas de diagnóstico. O AMIE superou os médicos de cuidados primários em qualidade de conversação e precisão de diagnóstico num estudo aleatório do tipo "OSCE virtual". Pré-impressão ➡️ https://t.co/XZizS9PtDG (1/7) pic.twitter.com/3t8hTkLmO9
- Alan Karthikesalingam (@alan_karthi) 12 de janeiro de 2024
No entanto, Karthikesalingam sublinha que a AMIE continua a ser experimental e não foi testada em doentes reais, apenas em actores que retratam condições médicas fictícias mas plausíveis.
Como funcionou o estudo
O estudo intitulado "Towards Conversational Diagnostic AI" apresenta o AMIE, um LLM concebido para interacções de diagnóstico médico.
Eis mais informações sobre o seu funcionamento:
- Desenvolvimento da AMIE: O Articulate Medical Intelligence Explorer (AMIE) é um sistema de IA baseado num Large Language Model (LLM) criado pela Google. Está optimizado para o diálogo de diagnóstico em contextos médicos. O AMIE foi concebido para emular o processo complexo de recolha de história clínica e de raciocínio de diagnóstico.
- Formação em diálogo simulado: Os investigadores desenvolveram um novo ambiente simulado de auto-jogo devido à falta de conversas médicas reais para formação. Isto permitiu à AMIE participar em diálogos simulados, desempenhando diferentes papéis (doente, médico, crítico) para melhorar a aprendizagem. Estes diálogos abrangeram uma série de condições médicas, especialidades e contextos.
- Estratégia de afinação da instrução e da cadeia de raciocínio: O AMIE foi submetido a um aperfeiçoamento de instruções utilizando vários conjuntos de dados do mundo real, incluindo dados de resposta a perguntas médicas, raciocínio, resumo e diálogo. Uma estratégia de raciocínio em cadeia envolveu a análise da informação do doente, a formulação de respostas e acções e o aperfeiçoamento das respostas com base na conversa em curso.
- Estudo de exame clínico estruturado objetivo remoto (OSCE): Os investigadores realizaram um estudo cruzado, aleatório e em dupla ocultação, comparando a AMIE com médicos de cuidados primários (PCP). Este estudo utilizou consultas baseadas em texto com 149 pacientes simulados, representados por actores, envolvendo vários cenários clínicos. Tanto os médicos especialistas como os actores dos pacientes avaliaram o desempenho da AMIE e dos PCP.
- Avaliação e resultados: A avaliação centrou-se na precisão do diagnóstico, no raciocínio de gestão, nas competências de comunicação e na empatia. Os AMIE demonstraram um desempenho superior ao dos PCP em várias áreas, incluindo a precisão do diagnóstico e a empatia.
Os investigadores advertem que, por enquanto, estes resultados devem ser interpretados com ligeireza, tendo em conta as limitações do estudo, como a utilização de uma interface de texto-chat e a falta de interacções com doentes do mundo real.
No entanto, marca um progresso no desenvolvimento de sistemas de IA capazes de conduzir entrevistas médicas e diálogos de diagnóstico.
A IA generativa nos cuidados de saúde tem sido uma área de enorme sucesso, com modelos localização de novos antibióticos, melhorar as colonoscopiase simulação de interacções entre compostos e processos biológicos.
Será que os modelos de IA podem agora também adotar funções de contacto com os doentes?