Глубокие подделки в политике - когда видеть больше не значит верить

28 января 2024 года

Мы действительно вступили в эпоху, когда нельзя доверять тому, что вы видите в Интернете. 

Хотя это утверждение было отчасти верно на протяжении десятилетий, искусственный интеллект вывел манипулирование контентом на новый уровень, значительно опередив осведомленность общественности.

Технология глубокого искусственного интеллекта может создавать и изменять изображения, видео и аудиозаписи, вкладывая слова в уста общественных деятелей или заставляя их предстать в ситуациях, которых никогда не было.

Во многих случаях для определения подлинности контента требуется больше, чем второй взгляд, а поддельные медиа могут накапливать миллионы впечатлений, прежде чем будут выявлены.

Сейчас мы наблюдаем глубокие подделки, которые потенциально могут нарушить демократические процессы, хотя еще слишком рано оценивать ощутимое влияние на поведение избирателей.

Давайте рассмотрим некоторые из наиболее заметных инцидентов, связанных с глубокими подделками политического ИИ, которые мы наблюдали до сих пор.

Джо Байден Инцидент в Нью-Гэмпшире

Январь 2024 года, A Нью-Гэмпшир, США, a Робозвонок, имитирующий голос Байдена призывал избирателей "сохранить свой голос для ноябрьских выборов", ошибочно полагая, что участие в праймериз невольно пойдет на пользу Дональду Трампу. 

Он был приписан к личному номеру мобильного телефона Кэти Салливан, бывшего председателя Демократической партии штата. Салливан осудила этот поступок как вопиющую форму вмешательства в выборы и личное преследование. 

Генеральная прокуратура Нью-Гэмпшира заявила, что это была незаконная попытка сорвать президентские праймериз и подавить явку избирателей. 

Было установлено, что сфабрикованный звук был создан с помощью ElevenLabs, лидера в области синтеза речи.

Позднее компания ElevenLabs отстранила виновного в подделке голоса Байдена и сказал: "Мы стремимся предотвратить неправомерное использование инструментов аудио ИИ и крайне серьезно относимся к любым случаям неправомерного использования".

Канцлер Германии Олаф Шольц глубокий инцидент с подделкой

В ноябре 2023 года в Германии появилась глубокая фальшивка ИИ, в которой канцлер Олаф Шольц ложно изобразил канцлера, одобряющего запрет ультраправой партии "Альтернатива для Германии" (AfD). 

Это глубоко фальшивое видео было частью кампании арт-активистской группы The Центр политической красоты (ЦПБ)и призвана привлечь внимание к растущему влиянию AfD. Критика AfD предваряется историей Германии 1930-х годов. 

Группа CPB, возглавляемая философом и художником Филиппом Рухом, стремится создавать "политическую поэзию" и "нравственную красоту", затрагивая такие ключевые проблемы современности, как нарушение прав человека, диктатура и геноцид.

КСП участвовала в многочисленных спорных проектах, таких как Инсталляция "Ищите нас" возле БундестагаВ нем, по их утверждению, содержалась почва из бывших лагерей смерти и останки жертв Холокоста. 

В то время как поддержка AfD растет, многочисленные протесты по всей Германии демонстрируют сильное неприятие идеологии AfD.

Представитель группы, стоящей за глубокой фальшивкой, заявил: "В наших глазах правый экстремизм в Германии, заседающий в парламенте, более опасен".

Представители AfD назвали кампанию "глубоких подделок" обманной тактикой, направленной на дискредитацию партии и влияние на общественное мнение. 

Премьер-министр Великобритании Риши Сунак замешан в аферах

В январе 2024 года британская исследовательская компания обнаружила, что премьер Риши Сунак был вовлечен в более чем 100 обманных видеореклам, распространявшихся в основном на Facebook и охвативших примерно 400 000 человек. 

Эти объявления, поступавшие из разных стран, включая США, Турцию, Малайзию и Филиппины, рекламировали мошеннические инвестиционные схемы, ложно связанные с такими известными личностями, как Элон Маск.

Исследование, проведенное компанией онлайн-коммуникаций компания Фенимора ХарпераВ статье подчеркивается, что компании, работающие в социальных сетях, просто не реагируют на этот вид контента в разумные сроки. 

Фальшивые новости
Одна из глубоких поддельных реклам перетягивала пользователей на фальшивую страницу новостей BBC, рекламирующую мошеннические инвестиции. Источник: Фенимор Харпер.

Маркус Бирд, основатель компании Fenimore Harper, объяснил, как ИИ демократизирует дезинформацию: "С появлением дешевых и простых в использовании технологий клонирования голоса и лица требуется совсем немного знаний и опыта, чтобы использовать сходство с человеком в злонамеренных целях".

Бирд также раскритиковал неадекватность модерации контента в социальных сетях, отметив: "Эти объявления противоречат нескольким рекламным политикам Facebook. Однако очень немногие из тех объявлений, с которыми мы столкнулись, похоже, были удалены".

Правительство Великобритании отреагировало на опасность мошеннических подделок: "Мы ведем активную работу в правительстве, чтобы быть готовыми быстро реагировать на любые угрозы демократическим процессам с помощью нашей целевой группы по защите демократии и специальных правительственных групп". 

Премьер-министр Пакистана Имран Хан появился на виртуальном митинге

В декабре 2023 года бывший премьер-министр Пакистана Имран Хан, находящийся в тюрьме по обвинению в утечке государственной тайны, появился на виртуальном митинге с использованием искусственного интеллекта.

Несмотря на то, что Хан находится за решеткой, за его цифровым аватаром наблюдали миллионы людей. На митинге были показаны кадры из прошлых выступлений его политической партии Пакистан Техрик-и-Инсааф (ПТИ).

Четырехминутная речь Хана говорила о стойкости и непоколебимости в борьбе с политическими репрессиями, которым подвергаются члены PTI. 

Голос ИИ произнес: "Нашей партии не разрешают проводить публичные митинги. Наших людей похищают, а их семьи подвергаются преследованиям", и далее: "История запомнит ваши жертвы". 

Запутывая ситуацию, правительство Пакистана якобы пыталось заблокировать доступ к митингу.

NetBlocks, организация, занимающаяся мониторингом интернета, заявила: "Как показывают показатели, основные платформы социальных сетей были ограничены в Пакистане в течение [почти] 7 часов в воскресенье вечером во время политического собрания в интернете; этот инцидент соответствует предыдущим случаям цензуры в интернете, направленной против лидера оппозиции Имрана Хана и его партии PTI".

Усама Хилджи, сторонник свободы слова в Пакистане, прокомментировал: "В условиях полного подавления права PTI на свободу ассоциаций и слова путем ареста руководства, использование партией искусственного интеллекта для трансляции виртуальной речи словами ее находящегося в заключении председателя и бывшего премьер-министра Имрана Хана знаменует собой новую точку в использовании технологий в пакистанской политике". 

Поддельные аудиозаписи бывшего президента Судана Омара аль-Башира на TikTok

Кампания на TikTok, управляемая искусственным интеллектом, использовала голос бывший президент Судана Омар аль-Башир на фоне продолжающихся в стране гражданских беспорядков. 

С конца августа 2023 года анонимный аккаунт размещает записи, которые, по его словам, являются "утечкой информации" о аль-Башире. Однако аналитики установили, что эти записи - подделка, сгенерированная искусственным интеллектом.

Аль-Башир не появлялся на публике с тех пор, как был изгнан из страны в 2019 году из-за серьезных обвинений в военных преступлениях. 

Аудиоафера в день выборов в Словакии

В день выборов в Словакии в скандальной аудиозаписи появились глубокие подделки Михала Шимечки, лидера Прогрессивной партии Словакии, и журналистки Моники Тодовой, обсуждающих коррупционные практики, такие как подкуп избирателей. 

Это всплыло во время предвыборного отключения СМИ в Словакии, так что причастные лица не могли легко публично опровергнуть свою причастность до окончания выборов. 

Обе причастные стороны позже осудили запись как глубокая подделкачто подтвердило агентство по проверке фактов. 

Глубокая подделка Владимира Зеленского

В 2023 году фальшивое видео президента Украины Владимира Зеленского, в котором он по-дилетантски призывал солдат покинуть свои посты, было быстро распознано как подделка и удалено основными платформами социальных сетей.

Турецкие выборы - глубокая фальшивая драма

В преддверии парламентских и президентских выборов в Турции в Интернете было распространено ложное видео, на котором главный соперник президента Реджепа Тайипа Эрдогана Кемаль Кылычдароглу получает поддержку от РПК. 

Дональд Трамп глубокие подделки

В начале 2023 года мы стали свидетелями реалистичных глубоких подделок ареста Дональда Трампа и предвыборного ролика Рона ДеСантиса, содержащего сгенерированные ИИ изображения Трампа, обнимающего Энтони Фаучи. 

Трамп ИИ
Изображения AI, на которых Трамп арестован, вызвали бурю восторга еще в марте 2023 года.

Трамп в бельгийской политической партии - глубокая фальшивка

Ранее, в 2018 году, в Бельгии произошел политический инцидент, когда глубоко фальшивое видео, созданное одной из политических партий, вызвало общественный резонанс.

В видеоролике ложно показано, как президент Дональд Трамп советует Бельгии выйти из Парижского соглашения по климату. 

Видео было частью высокотехнологичной фальсификации, что позже было признано медиа-командой партии. Оно продемонстрировало, насколько глубокие подделки могут быть использованы для фабрикации заявлений мировых лидеров с целью повлиять на общественное мнение и политику.

Глубокая подделка Нэнси Пелоси

В социальных сетях быстро распространилось подделанное видео с Нэнси Пелоси в 2020 году, на котором она выглядит так, будто говорит невнятно и находится в состоянии алкогольного опьянения. 

Это продемонстрировало потенциал глубоких подделок для дискредитации и смущения общественных деятелей, который часто сохраняется и после того, как контент признан поддельным. 

Аудио подделка Кира Стармера

Другой инцидент в британской политике связан с аудиороликом, на котором якобы запечатлен лидер оппозиции сэр Кейр Стармер, ругающийся на своих сотрудников. 

Ролик, получивший широкое распространение в социальных сетях, как выяснилось позже, оказался глубокой подделкой, сгенерированной искусственным интеллектом.

По мере того как технологические компании ищут способы масштабной борьбы с подделками, модели ИИ, используемые для создания фальшивых СМИ, будут становиться все более изощренными и простыми в использовании.

Предстоящий путь требует совместных усилий технологов, политиков и общественности, чтобы использовать преимущества ИИ и при этом сохранить основы нашего общества - доверие и честность.

Доверие к политике и общественным институтам и так уже, мягко говоря, шаткое. Глубокие подделки еще больше подорвут его.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения