ИИ в кабинете врача: Врачи общей практики обращаются к ChatGPT и другим инструментам для постановки диагноза

19 сентября 2024 года

  • Врачи обращаются к ChatGPT за помощью в клиническом администрировании и принятии решений
  • До 20% из примерно 1000 врачей общей практики в Великобритании признались, что используют инструменты генеративного ИИ
  • В связи с этим возникают вопросы о рисках, связанных с использованием искусственного интеллекта для точности диагностики и безопасности пациентов
ИИ-медицина

Новое исследование показало, что каждый пятый врач общей практики (ВОП) в Великобритании использует инструменты искусственного интеллекта, такие как ChatGPT, для помощи в решении повседневных задач, таких как постановка диагноза и написание писем пациентам. 

Сайт исследованиеВ ходе исследования, опубликованного в журнале BMJ Health and Care Informatics, было опрошено 1006 врачей общей практики о том, как они используют чат-боты с искусственным интеллектом в клинической практике. 

Около 20% сообщили, что используют инструменты генеративного ИИ, причем наибольшей популярностью пользуется ChatGPT. Из тех, кто использует ИИ, 29% заявили, что применяют его для создания документации после приема пациентов, а 28% - для предложения потенциальных диагнозов.

"Эти данные свидетельствуют о том, что врачи общей практики могут извлечь пользу из этих инструментов, особенно при решении административных задач и для поддержки клинических рассуждений", - отмечают авторы исследования. 

Мы понятия не имеем, сколько статей OpenAI использовал для обучения своих моделей, но это точно больше, чем мог бы прочитать любой врач. Он дает быстрые и убедительные ответы и очень прост в использовании, в отличие от поиска научных работ вручную. 

Означает ли это, что ChatGPT в целом не подходит для клинических рекомендаций? Абсолютно нет. Большие языковые модели (LLM), такие как ChatGPT, предварительно обучаются на огромном количестве общих данных, что делает их более гибкими, но сомнительно точными для решения конкретных медицинских задач.

Их легко провести, при этом модель ИИ будет склонна поддержать ваши предположения в проблематично подхалимском поведении.

Более того, некоторые исследователи утверждают, что ChatGPT может быть консервативным или ханжеским, когда речь идет о таких деликатных темах, как сексуальное здоровье.

Как отметил Стивен Хьюз из Университета Англия Раскин пишет в журнале The Conservation, “Я попросил ChatGPT диагностировать боль при мочеиспускании и выделения из мужских половых органов после незащищенного полового акта. Меня заинтриговало то, что я не получил никакого ответа. Как будто ChatGPT покраснел каким-то жеманным компьютерным способом. Если убрать упоминание о половом акте, ChatGPT выдал дифференциальный диагноз, включающий гонорею, а именно это заболевание я и имел в виду". 

Доктор Шарлотта Близ, ведущий автор исследования, сказала: "Несмотря на отсутствие руководства по использованию этих инструментов и неясные правила работы, врачи общей практики сообщают, что используют их для помощи в работе. Медицинскому сообществу необходимо найти способы просвещения врачей и стажеров о потенциальных преимуществах этих инструментов для обобщения информации, но также и о рисках, связанных с галлюцинациями, алгоритмическими предубеждениями и возможностью нарушения конфиденциальности пациентов".

Последний пункт является ключевым. Передача информации о пациенте в системы искусственного интеллекта, скорее всего, является нарушением конфиденциальности и доверия пациентов.

Доктор Элли Майн, советник по медицинскому праву Союза медицинской защиты, согласна с ключевыми вопросами: "Наряду с использованием, указанным в статье BMJ, мы обнаружили, что некоторые врачи обращаются к программам искусственного интеллекта, чтобы те помогали им составлять ответы на жалобы. Мы предупредили членов MDU о проблемах, которые это вызывает, включая неточности и конфиденциальность пациентов. Существуют также соображения защиты данных".

Она добавила: "При рассмотрении жалоб пациентов ответы, составленные ИИ, могут звучать правдоподобно, но содержать неточности и ссылки на неверные рекомендации, которые трудно заметить, когда они вплетены в очень красноречивые фрагменты текста. Крайне важно, чтобы врачи использовали ИИ этично и соблюдали соответствующие рекомендации и правила".

Вероятно, самыми важными вопросами на фоне всего этого являются: Насколько точен ChatGPT в медицинском контексте? И насколько велики риски неправильного диагноза или других проблем, если это будет продолжаться?

Генеративный ИИ в медицинской практике

В то время как врачи общей практики все чаще экспериментируют с инструментами искусственного интеллекта, исследователи работают над тем, чтобы оценить их сравнение с традиционными методами диагностики. 

A исследование опубликованный в Экспертные системы с приложениями провели сравнительный анализ ChatGPT, обычных моделей машинного обучения и других систем искусственного интеллекта для постановки медицинских диагнозов.

Исследователи обнаружили, что, несмотря на перспективность ChatGPT, его часто опережали традиционные модели машинного обучения, специально обученные на медицинских наборах данных. Например, многослойные перцептронные нейронные сети достигли наивысшей точности в диагностике заболеваний на основе симптомов: 81% и 94% на двух различных наборах данных.

Исследователи пришли к выводу, что хотя ChatGPT и подобные инструменты искусственного интеллекта демонстрируют потенциал, "их ответы часто могут быть неоднозначными и вырванными из контекста, что позволяет ставить неверные диагнозы, даже если просят дать ответ только с учетом определенного набора классов".

Это согласуется с другими недавними исследованиями, изучающими потенциал ИИ в медицинской практике.

Например, исследование опубликованный в JAMA Network Open проверила способность GPT-4 анализировать сложные случаи пациентов. Хотя в некоторых областях GPT-4 показал многообещающие результаты, он все же допускал ошибки, некоторые из которых могут быть опасны в реальных клинических сценариях.

Однако есть и исключения. Один исследование Проведенный Нью-Йоркским лазаретом глаз и ушей Маунт-Синай (NYEE) эксперимент показал, что GPT-4 может соответствовать или превосходить человеческих офтальмологов в диагностике и лечении глазных заболеваний.

При глаукоме GPT-4 давал очень точные и подробные ответы, превосходящие ответы настоящих глазных специалистов. 

Разработчики ИИ, такие как OpenAI и NVIDIA, готовят специальные медицинские ИИ-помощники для поддержки врачей, надеясь восполнить недостатки базовых передовых моделей, таких как GP-4.

OpenAI уже сотрудничает с компания Color Health, специализирующаяся на медицинских технологиях для создания "второго пилота" ИИ для лечения рака, демонстрируя, как эти инструменты должны стать более специфичными для клинической практики.  

Взвешивание выгод и рисков

Существует бесчисленное множество исследований, в которых специально обученные модели искусственного интеллекта сравниваются с людьми в определении заболеваний по диагностическим изображениям, таким как МРТ и рентгеновские снимки. 

Методы искусственного интеллекта превзошли врачей во всем, начиная от рак и диагностики глазных заболеваний до Болезнь Альцгеймера и Ранняя диагностика болезни Паркинсона. Одна из них, получившая имя "Миа", доказала свою эффективность, проанализировав более 10 000 снимков маммограмм, отметив известные случаи рака и обнаружив рак у 11 женщин, который врачи пропустили. 

Однако эти специально разработанные инструменты искусственного интеллекта, конечно же, не то же самое, что анализ заметок и заключений в языковой модели типа ChatGPT и просьба к ней поставить диагноз на основании только этого. 

Тем не менее, перед таким искушением трудно устоять. Не секрет, что медицинские службы перегружены. Время ожидания в NHS продолжает расти, достигая рекордных показателей, а в некоторых районах даже попасть на прием к врачу общей практики - непосильная задача. 

Инструменты искусственного интеллекта направлены на выполнение трудоемких административных задач, что так привлекает перегруженных врачей. Мы видим, как это отражается в многочисленных сферах государственного сектора, таких как образование, где учителя широко используют ИИ для создания материалов, выставления отметок за работу и т. д. 

Так будет ли ваш врач разбирать ваши записи в ChatGPT и выписывать вам рецепт на основе результатов для следующего визита к врачу? Вполне возможно. Это просто еще один рубеж, где обещание технологии сэкономить время так трудно отрицать. 

Лучшим способом продвижения вперед может стать разработка кодекса использования. Британская медицинская ассоциация призвала разработать четкую политику по внедрению ИИ в клиническую практику.

"Медицинскому сообществу необходимо найти способы как просвещения врачей и стажеров, так и информирования пациентов о безопасном использовании этих инструментов", - заключили авторы исследования BMJ.

Помимо советов и обучения, для реализации преимуществ ИИ и снижения рисков необходимы постоянные исследования, четкие рекомендации и приверженность безопасности пациентов.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения