Все больше компаний, занимающихся разработкой искусственного интеллекта, присоединяются к добровольным рамкам США по ИИ

12 сентября 2023 года

ИИ Белый дом

Администрация Байдена включила еще восемь компаний, занимающихся разработкой ИИ, в свою добровольную систему безопасности. 

Google, Anthropic, Microsoft, Amazon, OpenAI, Meta и Inflection присоединились к добровольной рамочной программе Белого дома по разработке и внедрению этичного ИИ в конце июля.

На этой неделе Белый дом объявил, что к ним присоединились Adobe, IBM, Nvidia, Salesforce, Cohere, Scale AI, Palantir и Stability. 

Рамочная программа Байдена призывает компании делиться протоколами безопасности и мерами защиты, раскрывать возможности и ограничения своих технологий ИИ, а также использовать ИИ для "помощи в решении важнейших проблем общества". 

Это обязательство вызывает сомнения, учитывая, что некоторые компании-участники - в частности, Palantir - известны своими военными приложениями ИИ и технологиями внутреннего наблюдения. Компания печально известна своими глобальными связями с различными правительствами и военными организациями. 

Генеральный директор компании Palantir Алекс Карп недавно призвал США используют ИИ для создания оружия и военных технологий, и ВВС уже провели успешные испытательные полеты с самолетом, управляемым искусственным интеллектом. 

Карп, выступая на февральском саммите по военным технологиям ИИ, сообщил, что компания предоставляет украинским военным аналитические данные для применения в боевых условиях. Несмотря на это, Карп отметил, что "архитектура, обеспечивающая прозрачность источников данных", должна быть "законодательно закреплена".

На слушаниях в сенатском комитете по вооруженным силам технический директор Palantir Шьям Санкар заявил, что остановка развития ИИ может поставить под угрозу технологическое превосходство США над Китаем. Он подчеркнул, что США необходимо продолжать инвестировать в "возможности, которые будут наводить ужас на наших противников".

Критики считают, что в концепции Белого дома упущены важные этические соображения, такие как прозрачность обучающих данных генеративного ИИ, которые большинство компаний хранят под строгим замком. 

Хотя Белый дом сообщил, что в настоящее время разрабатывается указ о "защите прав и безопасности американцев", никаких других подробностей не было опубликовано.

Сложности этического ИИ не ограничиваются компанией Palantir. Другие крупные технологические компании, такие как Google и Microsoft, уже сталкивались с противоречиями в связи с военными контрактами. 

Google однажды возглавил проект MavenКомпания Palantir, в которой была реализована инициатива по использованию искусственного интеллекта для наблюдения за беспилотниками, отказалась от нее после протестов сотрудников. По сообщениям, Palantir впоследствии взяла проект в свои руки.

В настоящее время усилия администрации Байдена сосредоточены в основном на необязательных рекомендациях и исполнительных приказах. 

Руководитель аппарата Белого дома Джефф Зинц сказал Рейтер что администрация "дергает за все рычаги, которые у нас есть", чтобы снизить риски, связанные с искусственным интеллектом.

Тем временем лидер большинства в Сенате Соединенных Штатов Чак Шумер проводит серию "ИИ-инсайт-форумов". состоится завтра, 13 сентября

Сфера действия добровольных рамок Белого дома расширяется

Согласно информационный бюллетень правительства охватывая рамки, обязательства тех, кто присоединился к ним на данный момент, служат "важным мостом для действий правительства". 

Компании согласились подвергать свои системы искусственного интеллекта тщательному внутреннему и внешнему тестированию на безопасность перед публичным выпуском. 

"Это тестирование, которое будет частично проводиться независимыми экспертами, защищает от некоторых из наиболее значительных источников рисков ИИ, таких как биозащита и кибербезопасность", - заявили в Белом доме.

Примечательно, что компании также обязуются обмениваться информацией об управлении рисками ИИ внутри отрасли, а также с правительствами, гражданским обществом и научными кругами.

Цель этого проекта - создать совместную среду для улучшения протоколов безопасности ИИ и предложить платформу для технического сотрудничества по пресечению попыток обхода защитных мер.

"При разработке этих обязательств администрация консультировалась с Австралией, Бразилией, Канадой, Чили, Францией, Германией, Индией, Израилем, Италией, Японией, Кенией, Мексикой, Нидерландами, Новой Зеландией, Нигерией, Филиппинами, Сингапуром, Южной Кореей, ОАЭ и Великобританией", - говорится в сообщении Белого дома. 

Существуют и другие инициативы, направленные на повышение устойчивости США к ИИ, например, конкурс под названием "Киберпроблема искусственного интеллекта" в сотрудничестве с DARPA.

Регулирование ИИ, похоже, ускоряет процесс достижения критической массы: в ЕС также продвигается работа над окончательной версией закона об ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения