ИИ может ослепить нас своей кажущейся объективностью, в то время как на самом деле он глубоко субъективен и подвержен предвзятости.
Многочисленные исследования подчеркивают Предвзятое отношение к ИИПри этом большинство последствий ощущают темнокожие люди и женщины.
Есть много исторических уроков, связанных с предвзятым ИИ, включая неудачную модель рекрутинга Amazon, которая не смогла справедливо рекомендовать женщин на технические должности, и модели распознавания лиц, которые ошибочно идентифицировали несколько чернокожих мужчин, что привело к длительным судебным разбирательствам.
По мере того как ИИ все глубже внедряется в нашу повседневную жизнь, вопрос о предвзятости становится все более актуальным, поскольку некоторые из этих систем принимают судьбоносные решения от нашего имени.
Женщины обеспокоены тем, что системы ИИ не приносят им пользы и не служат им наравне с мужчинами, что приводит к принятию некачественных и несправедливых решений.
Кэтрин Флик, исследователь в области компьютерных технологий и социальной ответственности из Университета Де Монтфорт, Великобритания, прокомментировала: "Это усиление патриархального техноцентричного общества, которое снова кодирует гендерные предубеждения в, казалось бы, "нейтральных" технологиях".
Флик отмечает, что даже технологии, которые мы считаем нейтральными, такие как автомобили или современная медицина, не всегда удовлетворяют потребности женщин так же эффективно, как мужчин.
McKinsey's последние прогнозы указывают на то, что ИИ может вытеснить рабочие места, причем женщины в 1,5 раза больше подвержены риску вытеснения рабочих мест ИИ, чем мужчины.
Говоря о неудачном проекте Amazon по подбору персонала, который прямо предрешал заявки, содержащие слово "женщины" или "женский", доктор Саша Лучиони из компании HuggingFace, занимающейся разработкой ИИ, отмечает: "Женщины были настолько мало представлены в данных, что модель, по сути, отвергала любое появление слова "женщины"".
Некоторые классические наборы данных, используемые для бенчмаркинга машинного обучения (ML), были раскрыты как состоящие преимущественно из белых мужчин.
Лучиони продолжает: "Очень мало женщин работает в этой области, очень мало женщин сидит за столом". Она объясняет, что недостаточное представительство имеет значение, потому что алгоритмы несут в себе ценности. Эти ценности могут не отражать разнообразную точку зрения, если их создатели - преимущественно мужчины.
Этот гендерный дисбаланс проявляется и в обучающих данных ИИ. Многие крупные языковые модели, например ChatGPT, используют для обучения наборы данных с таких платформ, как Reddit, где около двух третей пользователей - мужчины. В результате эти системы ИИ могут выдавать результаты, отражающие мужские разговоры.
Обращение к сайту Предвзятость искусственного интеллекта требует целостного подхода, утверждает Флик.
Начиная со сбора данных и заканчивая этапом проектирования, процесс требует большего разнообразия. "Если поступающие данные недостаточно хороши, они даже не должны доходить до стадии проектирования", - настаивает она.