Согласно новому исследованию, этические нормы отсутствуют по мере того, как ИИ продолжает трансформировать здравоохранение - от разработки лекарств до анализа медицинских изображений.
Сайт исследование В статье Йошки Хальтауфдерхайде и Роберта Раниша из Потсдамского университета, опубликованной в журнале njp Digital Communications, проанализированы 53 статьи с целью определения этического ландшафта, окружающего большие языковые модели (БЯМ) в медицине и здравоохранении.
Исследование показало, что ИИ уже используется в различных областях здравоохранения, включая:
- Интерпретация диагностических изображений
- Разработка и открытие лекарств
- Индивидуальное планирование лечения
- Вызов пациента и оценка риска
- Медицинские исследования и анализ литературы
Влияние искусственного интеллекта на здравоохранение и медицину в последнее время нельзя назвать иначе как впечатляющим.
Совсем недавно, Исследователи построили модель для раннего выявления болезни Альцгеймера, который может с точностью 80% предсказать, будет ли у человека диагностирована эта болезнь в течение шести лет.
Первый Препараты, созданные искусственным интеллектом уже направляются на клинические испытания, и Анализы крови на основе искусственного интеллекта может обнаружить рак по отдельным молекулам ДНК.
Что касается LLM, то OpenAI и Color Health недавно объявил система, помогающая врачам в диагностике и лечении рака.
При всей своей удивительности эти достижения вызывают чувство головокружения. Может быть, риски ускользают от внимания?
Рассматривая конкретно LLM, исследователи утверждают: "С появлением ChatGPT большие языковые модели (LLM) стали объектом огромного внимания в здравоохранении. Несмотря на потенциальные преимущества, исследователи подчеркивают различные этические последствия".
Что касается преимуществ: "Преимущества использования LLM объясняются их способностью анализировать данные, предоставлять информацию, поддерживать принятие решений, смягчать потери информации и повышать ее доступность".
Однако они также указывают на серьезные этические проблемы: "Наше исследование также выявило повторяющиеся этические проблемы, связанные со справедливостью, предвзятостью, недобросовестностью, прозрачностью и конфиденциальностью. Особую озабоченность вызывает тенденция к созданию вредного или убедительного, но неточного контента".
Эта проблема "галлюцинаций", когда ЛЛМ генерируют правдоподобные, но фактически неверная информацияЭто особенно важно в сфере здравоохранения. В худшем случае это может привести к неправильному диагнозу или лечению.
Разработчики ИИ часто не могут объяснить, как работают их модели, что известно как "проблема черного ящикаПоэтому такие ошибки очень сложно исправить.
Исследование вызывает тревогу о предвзятом отношении к магистрантам, отмечая: "Предвзятые модели могут привести к несправедливому отношению к обездоленным группам, что приведет к неравенству в доступе, усугубит существующее неравенство или навредит людям из-за выборочной точности".
Они приводят конкретный пример того, как ChatGPT и Foresight NLP проявили расовую предвзятость по отношению к чернокожим пациентам. A недавнее исследование Йельского университета обнаружили расовую предвзятость при обработке рентгеновских снимков в ChatGPT, когда им предоставлялась информация о расовой принадлежности снимков.
Предвзятое отношение LLM к группам меньшинств хорошо известно и может иметь коварные последствия в контексте здравоохранения.
Еще одним риском являются проблемы конфиденциальности: "При обработке данных о пациентах возникают этические вопросы, связанные с конфиденциальностью, приватностью и безопасностью данных".
Для устранения рисков первостепенное значение имеет человеческий контроль. Исследователи также призывают разработать универсальные этические рекомендации по использованию ИИ в здравоохранении, чтобы предотвратить развитие пагубных сценариев.
Сфера этики ИИ в здравоохранении стремительно расширяется по мере того, как совершаются новые открытия.
Недавно более 100 ведущих ученых выступили с добровольной инициативой, определяющей безопасность Правила проектирования белков с помощью искусственного интеллекта, подчеркивает, что технологии часто развиваются слишком быстро, чтобы безопасность успевала за ними.