Глубокая фальшивая дезинформация с помощью искусственного интеллекта на выборах в Бангладеш

15 декабря 2023 года

Бангладешская искусственная интеллигенция

В то время как Бангладеш готовится к национальным выборам в начале января, все более знакомая угроза поднимает свою уродливую голову: дезинформация, генерируемая искусственным интеллектом. 

Выборы в Бангладеш - это острая борьба между нынешним премьер-министром Шейх Хасиной и оппозиционной Националистической партией Бангладеш. 

Многочисленные отчеты привлекают внимание к тому, что проправительственные группы используют эти инструменты для создания сгенерированных ИИ новостных роликов, призванных повлиять на общественное мнение.

Например, в одном из таких роликов созданный ИИ ведущий новостей из Бангладеш критикует США, что перекликается с позицией нынешнего правительства. 

Другой пример - фальшивые видеоролики, направленные на дискредитацию оппозиционных деятелей, например, показывающие их непопулярную позицию по таким чувствительным вопросам, как поддержка Газы, что является чрезвычайно важным предметом дебатов в этой 175-миллионной стране с мусульманским большинством населения.

Глубокая фальшивая дезинформация и дезинформация, пожалуй, стали самыми непосредственными и насущными рисками для ИИ. Только на этой неделе президент России Владимир Путин столкнулся с ИИ-копией самого себя на пресс-конференции - студент использовал его, чтобы донести мысль о глубоких подделках на телевизионной сессии вопросов и ответов в прямом эфире. 

Выборы в Словакии пострадали от дезинформация в социальных сетях за последние 48 часов до пост-тайма, когда СМИ запрещено обсуждать политические новости. 

Крупные технологические компании, такие как Google и Meta, начинают внедрять политику в отношении политической рекламы, включая требование раскрывать информацию о цифровых изменениях. Однако пока эти меры кажутся слабыми, особенно в регионах, которые не привлекают такого внимания со стороны этих корпораций.

Регулирование ИИ в целом осуществляется в основном на Западе, а в развивающихся странах в основном отсутствует цифровое регулирование и права, что делает людей и их данные открытыми для эксплуатации. 

Как работает технология глубокой подделки?

По сути, "глубокая подделка" - это нетехнический термин, который описывает любую чрезвычайно эффективную подделку, обычно созданную с помощью генеративных инструментов искусственного интеллекта. 

В качестве примера можно привести HeyGen, видеогенератор с искусственным интеллектом, базирующийся в Лос-Анджелесе. За умеренную абонентскую плату этот сервис позволяет пользователям создавать ролики с аватарами ИИ. 

Один из таких видеороликов, в котором утверждается о вмешательстве США в выборы в Бангладеш, был распространен в социальных сетях. 

Поскольку эти аватары ИИ настолько похожи на жизнь, они часто проскальзывают через фильтры социальных сетей, и широкая общественность может не сразу отреагировать на них. Некоторые поддельные изображения, связанные с Израильско-палестинский конфликт Например, он достиг миллионов людей, прежде чем был полностью разоблачен как фальшивка.

Отсутствие надежных средств обнаружения ИИ для неанглийского контента усугубляет проблему.

По мере того как технологии ИИ развиваются и становятся все более доступными, перед регулирующими органами и цифровыми платформами встает необходимость разработки и применения эффективных мер по противодействию дезинформации.

Пока что это оказывается неразрешимой задачей. 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения