Кенийские модераторы ИИ-контента подали петицию в правительство из-за травмирующих условий труда

2 августа 2023 года

Найроби AI

Большинство людей подтвердят, что интернет - это порой враждебная среда, но что, если бы вы каждый день сталкивались с самым худшим, что он может предложить?

Модераторам контента поручено просеивать текст, изображения и видео и вручную отмечать вредный контент, от расовых оскорблений и языка ненависти до обсуждения или изображения убийств и самоубийств.

Пагубное психологическое воздействие работы хорошо задокументировано, как анекдотично, в виде открытых писем от тех, кто работает в этой отрасли, так и в научных исследованиях. 

Бурно развивающаяся индустрия генеративного искусственного интеллекта вызвала новый спрос на модераторов контента, И снова начинают всплывать истории изнутри этой непростой работы. 

Работники сферы обработки данных в Кении говорят о модерации контента искусственным интеллектом

В Кении несколько бывших модераторов контента в компании OpenAI's ChatGPT подали петицию в правительство Кении, требуя расследования того, что они описывают как "условия эксплуатации".

Эксплуататорская деятельность, о которой идет речь, связана с тем, что OpenAI заключила контракт с Sama, компанией, предоставляющей услуги по аннотированию данных, расположенной в Калифорнии. 

Как согласно петиции"На протяжении всего контракта на обучение ChatGPT мы не получали психосоциальной поддержки. В результате такой работы, обучения в ChatGPT, у нас развились тяжелые психические заболевания, включая посттравматическое стрессовое расстройство, паранойю, депрессию, тревогу, бессонницу, сексуальную дисфункцию и другие".

TIME, который также провел расследование Отношения Самы и Меты который работал в Кении над аналогичным проектом, изучил документы, свидетельствующие о том, что OpenAI подписала с Sama 3 контракта на сумму около $200 000. Контракты предусматривали маркировку текстовых описаний сексуального насилия, языка ненависти и насилия. 

Над проектом работали 36 человек в трех командах, по одной на каждый предмет. Все работники интервью TIME сказали, что задание повлияло на их психическое здоровье. 

Мофат Окиньи, бывший модератор, рассказал о том, какой психологический удар нанесла ему эта работа. "Это очень повредило моему психическому здоровью". сказал Окини.. Он вспоминал, что просматривал до 700 текстовых отрывков в день, многие из которых содержали графическое сексуальное насилие, что привело к паранойе и изоляции. В конце концов он потерял жену, которая сказала, что он стал "другим человеком".

TIME сообщает, что одному работнику пришлось прочитать графическое описание скотоложства в присутствии ребенка, назвав его "пыткой". Далее он сказал: "Вы прочтете несколько подобных заявлений в течение всей недели. Когда дело доходит до пятницы, вы уже не в состоянии осмыслить эту картину".

Петиция, поданная в Кению, обращает внимание на ужасающий контент, который приходилось просматривать подрядчикам и который часто содержал сцены насилия, членовредительства, убийств, изнасилований, некрофилии, насилия над детьми, скотоложства и инцеста. По словам представителя Sama, работники получали от $1,46 до $3,74 в час за работу. 

О низких зарплатах специалистов по работе с данными, связанными с искусственным интеллектом, много пишут в социальных сетях, а один из пользователей Redditor рассказал о том, что их опыт обучения Барда"20$/час - это мало за то ужасное обращение, которое мы получаем, поэтому я собираюсь выжать каждый цент из этой ******* работы".

$20/час - это далеко не те $5/час, которые платят в Кении. SСтоит ли компаниям, занимающимся разработкой искусственного интеллекта, так быстро бросаться на дно, если сама работа имеет важное значение для бизнеса, а ее содержание опасно?

НаперстянкаНекоммерческая юридическая неправительственная организация, поддерживающая дела кенийских рабочих против Meta и OpenAI, описывает это как вопиющую низкооплачиваемую эксплуатацию труда. 

Кори Крайдер, директор НаперстянкаПо его словам, "передача этих работников на аутсорсинг - это тактика технологических компаний, направленная на то, чтобы дистанцироваться от ужасных условий труда, в которых работают модераторы контента".

Зачем нужны модераторы человеческого контента?

Обучение моделей ИИ требует значительных человеческих усилий для создания и подготовки наборов данных.

Когда OpenAI и другие разработчики ИИ создают свои базы данных, они обычно собирают данные из реального мира, генерируют синтетические данные, а также берут данные из интернета, включая изображения и тексты с веб-сайтов, досок объявлений, форумов и так далее.

После сбора данные необходимо предварительно обработать, в том числе удалить вредный, ненавистный и дискриминационный контент. Кроме того, человеческие команды дорабатывают итерации моделей ИИ, вводя потенциально рискованные или вредные подсказки и анализируя ответы.

Эти процессы позволяют исследователям "выровнять" ИИ по этическим и социальным ценностям, получив чистый, нейтральный ИИ, не склонный к изменчивому поведению. Или, по крайней мере, это идеал для собственных публичных моделей, таких как ChatGPT и Bard.

Выравнивание с помощью ИИ - крайне несовершенная наука, которая не может быть достигнута без многослойного человеческого участия.

Хотя другие инструменты искусственного интеллекта могут предварительно фильтровать данные, удаляя более явные случаи ненависти или токсичного контента, их точность далеко не гарантирована, и некоторые из них неизбежно будут проскальзывать сквозь сеть. Задача усложняется еще и тем, что люди постоянно изобретают способы обхода фильтрации контента ИИ, например, заменяя слова на эмодзи - техника, регулярно используемая для обхода фильтров в социальных сетях. 

В данном конкретном случае OpenAI подтвердила TIME, что сотрудники Sama в Кении помогали создавать инструмент, предназначенный для обнаружения вредоносного контента, который в итоге был встроен в ChatGPT. 

OpenAI отвечает на петицию

В середине июля OpenAI ответила на опасения по поводу психологического воздействия работы по модерации контента. 

В заявлении для ITWeb АфрикаПредставитель OpenAI сказал: "Мы признаем, что это сложная работа для наших исследователей и работников, занимающихся аннотацией в Кении и по всему миру, - их усилия по обеспечению безопасности систем искусственного интеллекта были чрезвычайно ценными".

Наш представитель продолжил: "Наша миссия - создание безопасного и полезного искусственного интеллекта общего назначения (AGI), и аннотирование данных человеком - один из многочисленных потоков нашей работы по сбору отзывов людей и направлению моделей к более безопасному поведению в реальном мире. Мы считаем, что эта работа должна выполняться гуманно и добровольно, поэтому мы устанавливаем и распространяем собственные этические и санитарные нормы для наших аннотаторов данных".

Марта Дарк, директор Foxglove, говорит: "ChatGPT известен во всем мире как символ потенциала искусственного интеллекта. Но, как и Facebook до него, его успех основан на армии скрытых и недостаточно оплачиваемых людей, которые выполняют ужасную работу по просеиванию токсичного контента, чтобы сделать сервис безопасным. Модераторы в Кении создают первый на континенте профсоюз модераторов контента, чтобы дать им отпор. Эта парламентская петиция - последняя демонстрация силы организованных техноработников. Foxglove поддерживает это движение и надеется, что кенийские парламентарии проведут срочные реформы модели аутсорсинга, которая позволяет таким компаниям, как Sama, эксплуатировать иностранных технологических гигантов".

Мерси Мутеми, управляющий партнер кенийской юридической фирмы Nzili & Sumbi Advocates, добавила: "Кенийцам надоело быть дойной коровой больших технологий, где огромные прибыли извлекаются, а затем отправляются за границу, оставляя молодых африканских рабочих, которые их создали, без работы и разбитыми. Я призываю законодателей прислушаться к этим храбрым бывшим маркировщикам данных ChatGPT и немедленно расследовать условия труда в кенийских офисах модерации контента".

ИИ Кения
Кенийский адвокат Мерси Мутеми представляла интересы кенийских рабочих в судебном процессе против компаний Sama и Meta. Источник: WSJ.

В отдельном деле, касающемся Меты, в Кенийский суд постановил что ответственность за работников несет Meta, а не Sama, что стало знаковым решением, которое может изменить характер технологического аутсорсинга. 

Темная история модерации контента

Модерация контента имеет мрачную историю, которая берет свое начало с первых дней существования интернета.

Современный интернет подвергается жесткой цензуре, и вредоносный контент разного рода в основном запрещен на основных сайтах. Но люди все равно пытаются, и бремя защиты онлайн-сообществ часто ложится на плечи людей.

Объем потенциально оскорбительного контента поражает воображение. Как сообщает Forbes в 2020 годуИИ Facebook, занимающийся анализом и модерацией контента, ежедневно отмечал более 3 миллионов материалов, которые, возможно, нарушали стандарты сообщества. 

В то время в Facebook работало около 15 000 модераторов контента, которые ежедневно просеивали тысячи материалов. Марк Цукерберг признался, что примерно 1 из 10 материалов ускользает из сети и попадает в Facebook или Instagram. 

Несмотря на достижения в области автоматической фильтрации контента, в Исследование 2021 года По оценкам исследователей из Вирджинского технологического университета, Университета Святой Марии в Техасе и Техасского университета в Остине, во всем мире работает около 100 000 модераторов контента. 

Авторы отмечают, что человеческая интерпретация часто необходима из-за высоких требований к точности, субъективного характера задачи и сложной, постоянно меняющейся политики модерации.

В научной литературе описаны случаи развития у модераторов посттравматического стрессового расстройства (ПТСР), стресса, депрессии и тревоги, а также других психических осложнений. Оплачиваемые модераторы контента борются с тревожным содержанием, соблюдая строгие квоты приемлемого выполнения работы, и часто получают низкую зарплату. 

Некоторые модераторы контента подвергаются воздействию крайне неприятного контента, работая с так называемой "очередью террора" - очередью модерации, содержащей наиболее тревожный контент, включая убийства, самоубийства и пытки.

В статье The Verge Разоблачение модерации контента в Google и YouTube в 2019 годуМодератор, работающий в компании Alphabet в Остине, штат Техас, сказал: "Если я скажу, что это не повлияло на меня, то это будет полной ложью". "То, что ты видишь каждый день... это формирует тебя", - продолжил он, - "В начале ты видел, как все говорили: "Привет, как дела?". "Все были дружелюбны. Они ходили и проверяли, как дела. А сейчас никто даже не хочет разговаривать с другими".

Другой сказал: "Каждый день ты видишь, как кто-то обезглавливает кого-то, или кто-то стреляет в свою девушку. После этого ты чувствуешь, что этот мир действительно сошел с ума. От этого тебе становится плохо. Ты чувствуешь, что нет ничего, ради чего стоило бы жить. Почему мы так поступаем друг с другом?"

В то время как Фильтры контента ИИ В настоящее время совершенствуются технологии, снижающие нагрузку на команды модерации контента, однако контроль со стороны человека по-прежнему играет важнейшую роль в отлавливании контента, который отводит взгляд.

В конечном итоге, когда речь идет о создании обучающих наборов данных для ИИ, определенный уровень воздействия вредоносного контента на человека в значительной степени неизбежен. 

Если кенийские суды примут решение в пользу модераторов контента и другие сторонние подрядчики последуют их примеру, у компаний, работающих с искусственным интеллектом, не останется другого выбора, кроме как выплачивать справедливую компенсацию за эту изнурительную работу.

Ведь от этого зависит производительность их моделей.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения