OpenAI объявляет о намерении развернуть GPT-4 для модерации контента

17 августа 2023 года

GPT-4

Компания OpenAI объявила о том, что GPT-4 может модернизировать задачу модерации контента, снизив необходимость в человеческом контроле. 

Интернет постоянно модерируется на предмет вредного, ненавистного или иного неприемлемого контента, и хотя алгоритмы уже работают за кулисами, автоматизируя этот процесс, человеческая интуиция по-прежнему бесценна. 

Модераторы контента несут эту ответственность и должны отсеивать травмирующий контент, изображающий самоубийства, пытки и убийства.

OpenAI представляет себе будущее, в котором искусственный интеллект упорядочит модерацию онлайн-контента в соответствии с рекомендациями конкретной платформы, значительно снизив нагрузку на модераторов-людей. 

В запись в блогеОни утверждают: "Мы считаем, что это более позитивное видение будущего цифровых платформ, где искусственный интеллект может помочь модерировать онлайн-трафик в соответствии с политикой конкретной платформы и снять психологическую нагрузку с модераторов-людей, которых, вероятно, сотни тысяч по всему миру".

Это актуальная тема, поскольку недавно OpenAI вовлеченный в скандал привлечение модераторов контента, работающих в компании Sama, предоставляющей услуги по обработке данных, в Найроби, Кения.

Работники должны были отсортировать графический текстовый контент, чтобы улучшить "выравнивание" ChatGPT, которое описывает модификацию результатов работы ИИ в соответствии с "желательными" этическими, моральными и политическими границами, что является весьма субъективной практикой. 

Команда модераторов контента сообщила о травмирующих и несправедливых условиях труда и обратилась к правительству Кении, что привело к судебному разбирательству.

OpenAI утверждает, что GPT-4 может помочь разработать персонализированные политики контента и применять их к контенту в масштабе. 

Сравнивая GPT-4 с ручным модерированием, OpenAI подчеркивает мастерство ИИ в обеспечении последовательной маркировки и быстрой обратной связи, объясняя: "Люди могут по-разному интерпретировать политику или некоторым модераторам может потребоваться больше времени, чтобы переварить новые изменения политики, что приводит к непоследовательной маркировке. В отличие от этого, LLM чувствительны к гранулярным различиям в формулировках и могут мгновенно адаптироваться к обновлениям политики, чтобы предложить пользователям единообразный контент".

Однако, несмотря на то, что GPT-4 может облегчить бремя модераторов контента, OpenAI признает, что полностью автоматизировать этот процесс, скорее всего, невозможно, заявляя: "Как и в любом другом приложении ИИ, результаты и выходная информация должны тщательно контролироваться, проверяться и дорабатываться при участии людей".

Как OpenAI собирается использовать GPT-4 для модерации контента

Цифровые платформы сталкиваются с постоянной проблемой: быстрое и точное модерирование огромного количества контента. 

Исторически сложилось так, что тяжелую работу выполняли модераторы-люди с потенциально катастрофическими психологическими последствиями, часто в сочетании с низкой оплатой труда. 

OpenAI стремится использовать GPT-4 для автоматического внедрения политик, ограничивающих вредоносный контент. Компания отметила следующие преимущества: 

  • Скорость: С помощью GPT-4 изменения политики контента, на которые раньше уходили месяцы, теперь выполняются за несколько часов.
  • Последовательность: Человеческая интерпретация политик контента может быть различной, что приводит к несоответствиям. GPT-4 предлагает стандартизированный подход, адаптируясь к изменениям политики.
  • Психическое благополучие: Автоматизация большей части процесса модерации контента с помощью GPT-4 может снизить эмоциональную нагрузку на модераторов-людей, которые часто сталкиваются с вредным или оскорбительным контентом.

Однако OpenAI признает, что модерация контента происходит быстро, поскольку люди постоянно изобретают новые способы обхода фильтров, например, используют новые сленговые термины, чтобы избежать обнаружения. 

Кроме того, остается проблема предвзятости, поскольку решения GPT-4 могут отражать предвзятость обучающих данных. Это может привести к "слепым пятнам" или непредсказуемому отношению к некоторому контенту.

Стоит отметить, что кенийские модераторы контента выполняли эту задачу, чтобы помочь выровнять ChatGPT.

Таким образом, даже использование искусственного интеллекта для модерации контента в конечном итоге требует определенного воздействия со стороны человека.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения