Ученые призывают разработать этические рекомендации, поскольку магистры наук играют все более значительную роль в здравоохранении

11 июля 2024 года

  • Этические проблемы возникают по мере того, как магистратура все глубже внедряется в здравоохранение
  • Исследователи Потсдамского университета призывают к усилению контроля и соблюдению этических норм
  • Конфиденциальность, предвзятость и галлюцинации - важнейшие проблемы ИИ в здравоохранении
этика

Согласно новому исследованию, этические нормы отсутствуют по мере того, как ИИ продолжает трансформировать здравоохранение - от разработки лекарств до анализа медицинских изображений.

Сайт исследование В статье Йошки Хальтауфдерхайде и Роберта Раниша из Потсдамского университета, опубликованной в журнале njp Digital Communications, проанализированы 53 статьи с целью определения этического ландшафта, окружающего большие языковые модели (БЯМ) в медицине и здравоохранении.

Исследование показало, что ИИ уже используется в различных областях здравоохранения, включая:

  • Интерпретация диагностических изображений
  • Разработка и открытие лекарств
  • Индивидуальное планирование лечения
  • Вызов пациента и оценка риска
  • Медицинские исследования и анализ литературы

Влияние искусственного интеллекта на здравоохранение и медицину в последнее время нельзя назвать иначе как впечатляющим.

Совсем недавно, Исследователи построили модель для раннего выявления болезни Альцгеймера, который может с точностью 80% предсказать, будет ли у человека диагностирована эта болезнь в течение шести лет.

Первый Препараты, созданные искусственным интеллектом уже направляются на клинические испытания, и Анализы крови на основе искусственного интеллекта может обнаружить рак по отдельным молекулам ДНК.

Что касается LLM, то OpenAI и Color Health недавно объявил система, помогающая врачам в диагностике и лечении рака.

При всей своей удивительности эти достижения вызывают чувство головокружения. Может быть, риски ускользают от внимания?

Рассматривая конкретно LLM, исследователи утверждают: "С появлением ChatGPT большие языковые модели (LLM) стали объектом огромного внимания в здравоохранении. Несмотря на потенциальные преимущества, исследователи подчеркивают различные этические последствия".

Что касается преимуществ: "Преимущества использования LLM объясняются их способностью анализировать данные, предоставлять информацию, поддерживать принятие решений, смягчать потери информации и повышать ее доступность".

Однако они также указывают на серьезные этические проблемы: "Наше исследование также выявило повторяющиеся этические проблемы, связанные со справедливостью, предвзятостью, недобросовестностью, прозрачностью и конфиденциальностью. Особую озабоченность вызывает тенденция к созданию вредного или убедительного, но неточного контента".

Эта проблема "галлюцинаций", когда ЛЛМ генерируют правдоподобные, но фактически неверная информацияЭто особенно важно в сфере здравоохранения. В худшем случае это может привести к неправильному диагнозу или лечению.

Разработчики ИИ часто не могут объяснить, как работают их модели, что известно как "проблема черного ящикаПоэтому такие ошибки очень сложно исправить.

Исследование вызывает тревогу о предвзятом отношении к магистрантам, отмечая: "Предвзятые модели могут привести к несправедливому отношению к обездоленным группам, что приведет к неравенству в доступе, усугубит существующее неравенство или навредит людям из-за выборочной точности".

Они приводят конкретный пример того, как ChatGPT и Foresight NLP проявили расовую предвзятость по отношению к чернокожим пациентам. A недавнее исследование Йельского университета обнаружили расовую предвзятость при обработке рентгеновских снимков в ChatGPT, когда им предоставлялась информация о расовой принадлежности снимков.

Предвзятое отношение LLM к группам меньшинств хорошо известно и может иметь коварные последствия в контексте здравоохранения.

Еще одним риском являются проблемы конфиденциальности: "При обработке данных о пациентах возникают этические вопросы, связанные с конфиденциальностью, приватностью и безопасностью данных".

Для устранения рисков первостепенное значение имеет человеческий контроль. Исследователи также призывают разработать универсальные этические рекомендации по использованию ИИ в здравоохранении, чтобы предотвратить развитие пагубных сценариев.

Сфера этики ИИ в здравоохранении стремительно расширяется по мере того, как совершаются новые открытия.

Недавно более 100 ведущих ученых выступили с добровольной инициативой, определяющей безопасность Правила проектирования белков с помощью искусственного интеллекта, подчеркивает, что технологии часто развиваются слишком быстро, чтобы безопасность успевала за ними.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения