Афроамериканский английский (AAE) влияет на отношение магистрантов к дискриминации

5 марта 2024 года

предубеждение LLM

Предвзятость всегда была проблемой в искусственном интеллекте, но новое исследование показывает, что она скрыто интегрируется в языковые модели с потенциально катастрофическими последствиями.

Команда исследователей, в которую вошли Валентин Хофман, Пратюша Риа Каллури, Дэн Юрафски и Шарезе Кинг, в своем исследовании, которое уже получило признание как эпохальное, зафиксировала, как большие языковые модели (LLM) дискриминируют афроамериканский английский (AAE).

Одним словом, в исследовании проверяется, как различные орфографии и диалекты влияют на поведение LLM. В исследовании выясняется, влияют ли определенные диалекты и словоупотребление на поведение LLM, в первую очередь на предвзятость и дискриминацию. 

Мы знаем, что результаты LLM очень чувствительны к исходным данным. Даже небольшие отклонения в орфографии и стиле могут повлиять на результаты.

Но означает ли это, что определенные входные данные - например, набранные в AAE - дают необъективные выходные данные? Если да, то каковы возможные последствия? 

Чтобы ответить на эти вопросы, в исследователи Проанализировав предубеждения 12 магистрантов против ААЕ, мы обнаружили предубеждения, которые совпадают или превосходят те, что обычно присущи людям. Исследование доступна на сайте ArXiv.

Затем исследователи применили свои выводы к таким социальным областям, как трудоустройство и уголовное правосудие, где все большее распространение получает процесс принятия решений с помощью искусственного интеллекта. 

Хофманн описал методологию исследования на сайте X: "Мы анализируем диалектные предубеждения в LLM с помощью Matched Guise Probing: мы вставляем тексты на афроамериканском английском и стандартизированном американском английском (SAE) в подсказки, которые запрашивают свойства дикторов, произнесших эти тексты, и сравниваем предсказания моделей для двух типов ввода". 


Этот метод позволяет команде напрямую сравнивать реакции LLM на входы AAE и SAE, выявляя скрытые предубеждения, которые в противном случае остались бы незамеченными.

Результаты исследования, по меньшей мере, тревожат.

Хофманн отмечает: "Мы обнаружили, что скрытые расово-лингвистические стереотипы о носителях афроамериканского английского, воплощенные в LLM, более негативны, чем любые человеческие стереотипы об афроамериканцах, когда-либо экспериментально зафиксированные, хотя ближе всего к стереотипам, существовавшим до движения за гражданские права". 


Это говорит о том, что предубеждения, присутствующие у магистрантов, не просто отражают современные стереотипы, а в большей степени соответствуют предрассудкам, от которых, по мнению многих, общество уже отошло.

Один из самых тревожных аспектов исследования - это конкретные лингвистические триггеры предубеждения. 

Хофманн уточняет: "Что именно в текстах на афроамериканском английском вызывает диалектные предрассудки у магистрантов? Мы показали, что скрытые стереотипы напрямую связаны с отдельными языковыми особенностями афроамериканского английского, такими как использование 'finna' в качестве маркера будущего времени".

Это указывает на то, что предубеждение не просто против использования AAE в целом, а связано с отдельными языковыми элементами, характерными для диалекта.

Возможность причинения вреда

Потенциал вреда от таких предубеждений огромен. Предыдущие исследования уже продемонстрировали, что системы искусственного интеллекта, как правило, не справляются с женщинами, темнокожими людьми и другими маргинализированными группами. 

До последних нескольких лет системы искусственного интеллекта рисковали быть обученными на нерепрезентативные наборы данных. Некоторые из них, такие как Tiny Images, созданные в 2008 году в Массачусетском технологическом институте, позже были отозваны из-за сексизма и расизма. 

Одно из влиятельных исследований 2018 года, Гендерные оттенкиПроанализировав сотни алгоритмов ML, они обнаружили, что частота ошибок у темнокожих женщин на 34% больше, чем у светлокожих мужчин.

Последствия этого очевидны: модели здравоохранения демонстрируют высокий уровень ошибочной диагностики рака кожи среди людей с темным цветом кожи и предвзятые модели предиктивной работы полиции Непропорционально много нападений на чернокожих.  

Мы уже наблюдали неопровержимые доказательства того, что Расширение использования искусственного интеллекта в государственном сектореот преступности и охраны порядка до социального обеспечения и экономики. Решение проблемы фундаментальной предвзятости в сложных системах ИИ является абсолютно необходимым для того, чтобы это продолжалось.

Опираясь на это исследование, команда Хофмана изучила, как предвзятое отношение к LLM может повлиять на несколько гипотетических сценариев.

Хофман поделился: "Сосредоточившись на сферах занятости и преступности, мы обнаружили, что потенциал для нанесения вреда огромен". 

В частности, было обнаружено, что магистранты назначают менее престижные должности и предлагают более суровые уголовные приговоры в отношении носителей ААЕ.


Хофманн предупреждает: "Наши результаты указывают на два риска: пользователи могут принять снижение уровня явных предрассудков за признак того, что с расизмом в среде LLM покончено, в то время как на самом деле LLM достигают все более высоких уровней скрытых предрассудков". 

Исследование также определяет, что устранение этих проблем является технически сложной задачей.

Авторы пишут: "Мы показываем, что существующие методы смягчения расовых предубеждений в языковых моделях, такие как обучение обратной связи с человеком, не смягчают диалектные предубеждения, но могут усугубить расхождение между скрытыми и явными стереотипами, обучая языковые модели поверхностно скрывать расизм, который они поддерживают на более глубоком уровне".

Можно предположить, что эти предубеждения распространяются и на другие диалекты или культурно-языковые вариации. Необходимо провести дополнительные исследования, чтобы понять, как показатели LLM меняются в зависимости от языкового материала, культурных особенностей использования и т.д.

В конце исследования содержится призыв к действию для сообщества исследователей ИИ и общества в целом. Устранение этих предубеждений имеет первостепенное значение по мере того, как системы ИИ все больше внедряются в общество.

Однако до сих пор в некоторых системах искусственного интеллекта сохраняется систематически присущая им предвзятость. Проблема, которую разработчики готовы обойти стороной в своей гонке за превосходство ИИ. 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения