ЕС призывает крупные технологические компании, использующие генеративный искусственный интеллект в своих продуктах, такие как TikTok, Meta, Google и Microsoft, маркировать сервисы, которые могут распространять дезинформацию.
В понедельник вице-президент Комиссии ЕС Вера Журова подчеркнула способность генеративного ИИ распространять дезинформацию с помощью фальшивых новостей и глубоких подделок. В мае в социальных сетях распространился целый ряд фальшивок, в том числе поддельная фотография взрыв в ПентагонеВ результате чего американский фондовый рынок S&P 500 упал на 0,3%.
По словам Журовой, генеративный ИИ создает "новые вызовы для борьбы с дезинформацией" и вызывает "новые риски и возможность негативных последствий для общества".
По ее словам, компании, подписавшиеся на Добровольный кодекс ЕС по борьбе с дезинформацией должны начать "четко маркировать" сервисы, которые рискуют распространять дезинформацию.
Спешка в регулировании искусственного интеллекта
Эти комментарии появились в преддверии Закон ЕС о цифровых услугахВ августе должен вступить в силу закон, обязывающий "крупные онлайн-платформы", работающие в ЕС (под которыми понимаются платформы с более чем 55 миллионами пользователей), бороться с вредным контентом и повышать уровень конфиденциальности пользователей. С момента разработки закона искусственный интеллект претерпел изменения, поэтому ЕС обновил его, добавив правила по борьбе с фальшивыми аккаунтами и глубокими подделками.
Закон ЕС об искусственном интеллекте, более подробный и далеко идущий законодательный акт, призванный регулировать ИИ, будет вынесен на пленарное голосование 14 июня, после чего он вступит в окончательный законодательный процесс. Скорее всего, он вступит в силу в 2026 году, что, по мнению как лидеров ИИ-технологий, так и чиновников ЕС, произойдет еще не скоро.
Примечательно, что быстрым развитием ИИ обеспокоены не только политики, но и руководители таких компаний, как OpenAI и Google, которые отдельно обсудили потенциальную Пакт об искусственном интеллекте или "промежуточные" правила чтобы замедлить развитие искусственного интеллекта.
В прошлом месяце генеральный директор OpenAI Сэм Альтман призвал Конгресс регулировать искусственный интеллект а затем сказал на конференции"Я думаю, что все будет хорошо. Я думаю, важно, чтобы мы это сделали. Нормативная ясность - это хорошо".
Будут ли большие технологии самостоятельно регулировать ИИ?
Саморегулирование зависит от добровольных действий и перекрестного сотрудничества между героями ИИ из OpenAI, Microsoft, Alphabet и др.
Реально ли это? В последнем добровольном проекте ЕС по борьбе с дезинформацией был один из самых заметных участников: Twitter.
Twitter отказался от участия в добровольном кодексе ЕС и позже отказался от дальнейших комментариев. Тьерри Бретон, еврокомиссар ЕС по внутреннему рынку, сказал: "Вы можете бежать, но не можете спрятаться", а Журова отметила: "Twitter выбрал трудный путь. Они выбрали конфронтацию".
OpenAI, Google, Microsoft и другие компании обсуждали добровольные рамочные соглашения или пакты в области ИИ, но действия Twitter подчеркивают, что достаточно одного человека, чтобы покинуть корабль и повергнуть всю команду в смятение.
Саморегулирование не только требует от лидеров ИИ собраться за одним столом и отложить в сторону конкурентные разногласия, но и потенциально раскрыть некоторые свои внутренние механизмы.