Белый дом недавно нанял хакеров для тщательной проверки технологий искусственного интеллекта.
Это стало частью масштабной публичной акции "Красная метка", организованной во время Деф Кон хакерской конвенции в Лас-Вегасе.
Концепция red-teaming - проведение агрессивных тестов для выявления технологических ошибок и неточностей - обычно является внутренним делом компании.
Однако повсеместное распространение публичных ИИ, таких как ChatGPT, заставляет разработчиков подвергать свои инструменты тщательному изучению, к чему также призывает Белый дом.
В этом году на Def Con технология искусственного интеллекта от таких технологических гигантов, как Google и OpenAI, оказалась под пристальным вниманием хакеров, которые пытались выявить проблемы предвзятости и дискриминации.
В заседании приняла участие Арати Прабхакар, глава Управления по научно-технической политике в Белом доме.
Келси Дэвис, основатель и генеральный директор технологической компании CLLCTVE, была в числе сотен хакеров, участвовавших в испытании.
Дэвис рассказала NPR о своем волнении по поводу этого мероприятия, сказав: "Это действительно классный способ просто засучить рукава. Вы помогаете процессу создания чего-то более справедливого и инклюзивного".
Борьба с предвзятостью ИИ
Дэвис сосредоточился на выявлении демографических стереотипов в ответах ИИ.
Хотя чатбот адекватно отвечал на некоторые вопросы, он проявил явную расовую предвзятость, когда ему предложили сценарий о посещении исторически черного колледжа или университета (HBCU).
"Это хорошо - значит, я его сломала", - заметила Дэвис после того, как чатбот с искусственным интеллектом продемонстрировал стереотипные предубеждения. После этого она представила свои результаты, которые будут учтены при дальнейшей доработке технологии.
Участие Белого дома подчеркивает исключительную важность "красной команды" в борьбе с предвзятостью ИИ.
Прабхакар объяснил: "В этом испытании есть все, что нам нужно. Она структурирована, она независима, она ответственно подходит к отчетности, и в ней участвует много разных людей с разным опытом работы".
Предвзятость ИИ - вполне реальная проблема для многих людей. Например, было обнаружено, что инструмент для подбора персонала Amazon наказывает заявки на работу от женщин, а в США было арестовано не менее пяти чернокожих мужчин из-за того, что ложное распознавание лиц матчи.
Исследователи работают над тем, чтобы разоблачение предвзятости ИИ Часто оказывается, что проблема связана с обучающими данными, которые зачастую плохо представляют разнообразные демографические группы, которым должен служить ИИ.
Организаторы Def Con приложили все усилия для того, чтобы обеспечить разнообразный состав участников Red-teaming Challenge, сотрудничая с общественными колледжами и некоммерческими организациями, такими как Black Tech Street.
Тайренс Биллингсли, основатель Black Tech Street, сказал: "ИИ имеет решающее значение. И мы должны быть здесь".
В ближайшие месяцы технологические компании проанализируют присланные заявки и попытаются внести необходимые коррективы в свои модели искусственного интеллекта, чтобы смягчить предвзятость.