Google, Anthropic, Microsoft, Amazon, OpenAI, Meta и Inflection - эти 7 гигантов индустрии ИИ согласились с добровольными обязательствами, принятыми Белым домом.
"Мы должны ясно видеть и бдительно следить за угрозами, которые могут представлять собой новые технологии", - сказал Байден об искусственном интеллекте. Среди прочих рисков он обсудил глубокие подделки в социальных сетях.
Сайт официальное заявлениеВ документе, опубликованном на сайте Белого дома, говорится о нескольких ключевых процессах, которые должны соблюдать компании, занимающиеся разработкой и выпуском продуктов искусственного интеллекта.
"Американские компании лидируют в мире в области инноваций, и они обязаны делать это и продолжать делать, но на них лежит не меньшая ответственность за то, чтобы их продукция была безопасной, надежной и заслуживающей доверия", - заявил руководитель аппарата Белого дома Джефф Зиентс в своем заявлении. Недавнее интервью NPR.
Однако процесс привлечения компаний, занимающихся разработкой ИИ, к ответственности в случае невыполнения ими своих обязательств остается неясным. "Мы будем использовать все имеющиеся у нас рычаги в федеральном правительстве, чтобы обеспечить соблюдение этих обязательств и стандартов. В то же время нам необходимо законодательство", - пояснил Зиентс.
Белый дом в тандеме с Конгрессом работает над разработкой законодательства в области ИИ, чтобы подчеркнуть его положительный потенциал и одновременно контролировать риски. США, не спешащие с регулированием ИИ, сделали значительные успехи выработать свою позицию в отношении технологии, чтобы направить ее в позитивное русло.
Каковы обязательства?
Эти обязательства предполагают прозрачность, тестирование и обмен информацией с общественностью и правительством.
Разработчики искусственного интеллекта обязуются проводить тестирование своих продуктов "частично с привлечением независимых экспертов", чтобы оградить их от серьезных рисков. Google и OpenAI будут тестировать свои системы искусственного интеллекта на предстоящем хакерском съезде DEF-CON в Лас-Вегасе, и этот шаг одобрил Белый дом.
Среди других обещаний - разработка методов указания на то, что контент создан ИИ, например, водяных знаков, предотвращение предвзятости и дискриминации, а также защита конфиденциальности.
Однако эти соглашения - только начало. "Обязательства, которые берут на себя компании, - это хорошее начало, но это только начало", - сказал Зиентс. "Главное здесь - реализация и исполнение, чтобы эти компании выполняли свои обязательства и заслужили доверие общества".
Белый дом также проводит обсуждения с лидерами организаций по защите гражданских прав и профсоюзов, чтобы понять, как ИИ повлияет на их работу.
Однако Ифеома Аджунва, профессор права из Эмори, выразила разочарование тем, что Белый дом сотрудничает в основном с самими компаниями, занимающимися разработкой искусственного интеллекта: "Мы также хотим убедиться в том, что мы включаем и другие голоса, которые не преследуют цели извлечения прибыли", - сказала она.
"Мы должны пригласить корпоративных лидеров и технологических титанов принять участие в этом разговоре, но они не должны его вести".
Новые соглашения могут несправедливо благоприятствовать более крупным, устоявшимся компаниям, сдерживая рост стартапов.
Виктор Меналдо, профессор политэкономии из Университета Вашингтона, считает, что "более крупные компании могут играть с выгодой для себя, а новички не имеют права голоса".
Регулирование будет также поразить сообщество разработчиков открытого программного обеспеченияВ этом случае компания не будет иметь такого доверия и влияния на управление, как такие известные технологические компании, как Google и Microsoft.
Соблюдение требований, скорее всего, будет дорогостоящим и грозит обременить стартапы.
Представители Белого дома не уточнили, будут ли к соглашениям добавлены новые компании: "Мы ожидаем, что другие компании увидят, что они также обязаны соответствовать стандартам безопасности и доверия. И они могут решить - и мы приветствуем их решение - присоединиться к этим обязательствам".
Еще одна добровольная система, хотя и несколько более высокого уровня, чем другие.
Окажет ли это практическое влияние на развитие ИИ? Только время покажет.