Новое исследование показало, что каждый пятый врач общей практики (ВОП) в Великобритании использует инструменты искусственного интеллекта, такие как ChatGPT, для помощи в решении повседневных задач, таких как постановка диагноза и написание писем пациентам.
Сайт исследованиеВ ходе исследования, опубликованного в журнале BMJ Health and Care Informatics, было опрошено 1006 врачей общей практики о том, как они используют чат-боты с искусственным интеллектом в клинической практике.
Около 20% сообщили, что используют инструменты генеративного ИИ, причем наибольшей популярностью пользуется ChatGPT. Из тех, кто использует ИИ, 29% заявили, что применяют его для создания документации после приема пациентов, а 28% - для предложения потенциальных диагнозов.
"Эти данные свидетельствуют о том, что врачи общей практики могут извлечь пользу из этих инструментов, особенно при решении административных задач и для поддержки клинических рассуждений", - отмечают авторы исследования.
Доктор Шарлотта Близ, ведущий автор исследования, сказала: "Несмотря на отсутствие руководства по использованию этих инструментов и неясные правила работы, врачи общей практики сообщают, что используют их для помощи в работе. Медицинскому сообществу необходимо найти способы просвещения врачей и стажеров о потенциальных преимуществах этих инструментов для обобщения информации, но также и о рисках, связанных с галлюцинациями, алгоритмическими предубеждениями и возможностью нарушения конфиденциальности пациентов".
Последний пункт является ключевым. Передача информации о пациенте в системы искусственного интеллекта, скорее всего, является нарушением конфиденциальности и доверия пациентов.
Доктор Элли Майн, советник по медицинскому праву Союза медицинской защиты, согласна с ключевыми вопросами: "Наряду с использованием, указанным в статье BMJ, мы обнаружили, что некоторые врачи обращаются к программам искусственного интеллекта, чтобы те помогали им составлять ответы на жалобы. Мы предупредили членов MDU о проблемах, которые это вызывает, включая неточности и конфиденциальность пациентов. Существуют также соображения защиты данных".
Она добавила: "При рассмотрении жалоб пациентов ответы, составленные ИИ, могут звучать правдоподобно, но содержать неточности и ссылки на неверные рекомендации, которые трудно заметить, когда они вплетены в очень красноречивые фрагменты текста. Крайне важно, чтобы врачи использовали ИИ этично и соблюдали соответствующие рекомендации и правила".
Мы понятия не имеем, сколько статей OpenAI использовал для обучения своих моделей, но это точно больше, чем мог бы прочитать любой врач. Он дает быстрые и убедительные ответы и очень прост в использовании, в отличие от поиска научных работ вручную.
Означает ли это, что ChatGPT в целом точна для клинических рекомендаций? Нет. Большие языковые модели (LLM), такие как ChatGPT, предварительно обучаются на огромном количестве общих данных, что делает их более гибкими, но сомнительно точными для решения конкретных медицинских задач.
Модели искусственного интеллекта, подобные ChatGPT, легко поддаются влиянию, часто разделяя предположения пользователей в подхалимской манере. Кроме того, исследователи отмечают, что эти модели могут проявлять излишнюю консервативность или ханжество при обсуждении таких деликатных тем, как сексуальное здоровье.
Стивен Хьюз из Университета Англия Раскин пишет в журнале The Conservation, “Я попросил ChatGPT диагностировать боль при мочеиспускании и выделения из мужских половых органов после незащищенного полового акта. Меня заинтриговало то, что я не получил никакого ответа. Как будто ChatGPT покраснел каким-то жеманным компьютерным способом. Если убрать упоминание о половом акте, ChatGPT выдал дифференциальный диагноз, включающий гонорею, а именно это заболевание я и имел в виду".
Вероятно, самыми важными вопросами на фоне всего этого являются: Насколько точен ChatGPT в медицинском контексте? И насколько велики риски неправильного диагноза или других проблем, если это будет продолжаться?
Генеративный ИИ в медицинской практике
В то время как врачи общей практики все чаще экспериментируют с инструментами искусственного интеллекта, исследователи работают над тем, чтобы оценить их сравнение с традиционными методами диагностики.
A исследование опубликованный в Экспертные системы с приложениями провели сравнительный анализ ChatGPT, обычных моделей машинного обучения и других систем искусственного интеллекта для постановки медицинских диагнозов.
Исследователи обнаружили, что, несмотря на перспективность ChatGPT, его часто опережали традиционные модели машинного обучения, специально обученные на медицинских наборах данных. Например, многослойные перцептронные нейронные сети достигли наивысшей точности в диагностике заболеваний на основе симптомов: 81% и 94% на двух различных наборах данных.
Исследователи пришли к выводу, что хотя ChatGPT и подобные инструменты искусственного интеллекта демонстрируют потенциал, "их ответы часто могут быть неоднозначными и вырванными из контекста, что позволяет ставить неверные диагнозы, даже если просят дать ответ только с учетом определенного набора классов".
Это согласуется с другими недавними исследованиями, изучающими потенциал ИИ в медицинской практике.
Например, исследование опубликованный в JAMA Network Open проверила способность GPT-4 анализировать сложные случаи пациентов. Хотя в некоторых областях GPT-4 показал многообещающие результаты, он все же допускал ошибки, некоторые из которых могут быть опасны в реальных клинических сценариях.
Однако есть и исключения. Один исследование Проведенный Нью-Йоркским лазаретом глаз и ушей Маунт-Синай (NYEE) эксперимент показал, что GPT-4 может соответствовать или превосходить человеческих офтальмологов в диагностике и лечении глазных заболеваний.
При глаукоме GPT-4 давал очень точные и подробные ответы, превосходящие ответы настоящих глазных специалистов.
Такие разработчики ИИ, как OpenAI и NVIDIA, сейчас готовят специализированные медицинские ИИ-ассистенты для поддержки врачей, восполняя недостатки базовых передовых моделей, таких как GP-4.
OpenAI уже сотрудничает с компания Color Health, специализирующаяся на медицинских технологиях для создания "второго пилота" ИИ для лечения рака, демонстрируя, как эти инструменты должны стать более специфичными для клинической практики.
Взвешивание выгод и рисков
Существует бесчисленное множество исследований, в которых специально обученные модели искусственного интеллекта сравниваются с людьми в определении заболеваний по диагностическим изображениям, таким как МРТ и рентгеновские снимки.
Методы искусственного интеллекта превзошли врачей во всем, начиная от рак и диагностики глазных заболеваний до Болезнь Альцгеймера и Ранняя диагностика болезни Паркинсона. Одна из моделей искусственного интеллекта, получившая имя "Миа", доказала свою эффективность при анализе более 10 000 снимков маммограмм, отметив известные случаи рака и обнаружив рак у 11 женщин, который врачи пропустили.
Однако эти специально разработанные инструменты искусственного интеллекта, конечно же, не то же самое, что анализ записей и заключений в общей языковой модели, такой как ChatGPT, и просьба поставить диагноз на основании только этого.
Тем не менее, перед соблазном легко сделать это и получить быстрые и информативные ответы трудно устоять.
Не секрет, что службы здравоохранения перегружены. Инструменты искусственного интеллекта экономят время, поэтому они так привлекательны для перегруженных врачей.
Мы видим, как это отражается в государственном секторе, например, в образовании, где учителя широко используют ИИ для создания материалов, выставления отметок за работу и т. д.
Так будет ли ваш врач разбирать ваши записи в ChatGPT и выписывать вам рецепт на основе результатов для следующего визита к врачу? Вполне возможно. Это еще одна область, где обещание технологии ИИ сэкономить драгоценное время трудно отрицать.
Частью этого пути станет разработка кодекса использования ИИ в кабинете врача. Британская медицинская ассоциация уже призвала разработать четкую политику по внедрению ИИ в клиническую практику.
"Медицинскому сообществу необходимо найти способы как просвещения врачей и стажеров, так и информирования пациентов о безопасном использовании этих инструментов", - заключили авторы исследования BMJ.
Помимо образования, для реализации преимуществ ИИ и снижения рисков необходимы постоянные исследования, четкие рекомендации и приверженность безопасности пациентов. Это будет непросто сделать правильно.