Скандальная аудиозапись появилась в Facebook через несколько часов после публикации в день выборов в Словакии.
В нем звучали голоса Михала Шимечки, лидера Прогрессивной партии Словакии, и Моники Тодовой из газеты Denník N.
Разговор шел о фальсификации выборов и покупке голосов у цыганского меньшинства, что вызвало обеспокоенность коррупцией и путаницу в социальных сетях.
Запись была быстро опровергнута как подделка и Шимечкой, и Денником Н. Сайт проверки фактов Agence France-Presse (AFP) указал на признаки манипуляции искусственным интеллектом в аудиозаписи, о чем впоследствии сообщили международные новостные издания.
Учитывая время - 48-часовое молчание СМИ перед выборами - опровергнуть сообщение вовремя было непросто.
Партия Smer-SD, возглавляемая бывшим премьер-министром Словакии Робертом Фико, набрала 23% в субботнем голосовании, опередив центристскую Прогрессивную Словакию с 18%.
Кроме того, поскольку это был аудиоконтент, он проскользнул мимо политики Meta, которая в первую очередь направлена на манипуляции с видео.
В преддверии голосования руководитель отдела цифровых технологий ЕС Вера Йоурова подчеркнула подверженность европейских выборов масштабным манипуляциям, намекнув на внешнее влияние, например, со стороны Москвы.
Теперь страны находятся в состоянии повышенной готовности к вмешательству ИИ в выборы, которое, похоже, неизбежно - вопрос лишь в том, сможем ли мы его остановить и какой ущерб оно может нанести. Следующим испытанием станет Польша, где скоро пройдут выборы.
В 2024 и 2025 годах на горизонте также маячат крупные выборы, в том числе в США и Индии в следующем году.
Такие специалисты по проверке фактов, как AFP, подчеркивают, что ИИ быстро превращается в мощный инструмент для дестабилизации выборов, и мы плохо подготовлены к противодействию ему. Вероника Хинкова-Франковска из организации по проверке фактов Demagog отметила: "Мы не готовы к этому настолько, насколько должны быть готовы".
Команда Франковской проверила происхождение поддельного словацкого аудио и проконсультировалась с экспертами, после чего использовала классификатор речи на основе искусственного интеллекта от Eleven Labs для определения его подлинности.
Несмотря на развитие искусственного интеллекта, мы во многом полагаемся на людей, чтобы распознать глубокие подделки.
Глубокие подделки ИИ становятся критической проблемой
Роль искусственного интеллекта в распространении дезинформации постоянно растет, и доказать, что изображения, видео и записи, сделанные искусственным интеллектом, являются подделкой, - задача не из легких.
Большинство фальшивого контента запрещено в социальных сетях. Бен Уолтер, представляющий компанию Meta, заявил: "Стандарты нашего сообщества применяются ко всему контенту... и мы будем принимать меры против контента, нарушающего эти правила".
Однако на практике остановить распространение фальшивого контента оказывается трудновыполнимой задачей, поэтому такие меры, как искусственный интеллект водяные знаки крайне неэффективны.
В Польше, готовящейся к выборам, опасаются возможного наплыва контента, созданного искусственным интеллектом, и дезинформация уже вызывает волнения.
Якуб Шлиж из польской группы по проверке фактов, Ассоциации "Правда", сказал: "Как у организации по проверке фактов, у нас нет конкретного плана, как с этим бороться".
Там, где результаты выборов зависят от небольшого перевеса и ожесточенных политических диалогов, как это произошло в Словакии, влияние дезинформации, созданной ИИ, может быть серьезным. Более того, прошлые случаи дезинформации, усиленной алгоритмами, такие как скандал с Cambridge Analytica, говорят нам о том, что некоторые заинтересованные стороны могут быть соучастниками этой тактики.
Президентские выборы 2016 года в США уже изобиловали дезинформацией, распространяемой экстремистскими активистами, иностранным вмешательством и обманчивыми новостными изданиями.
К 2020 году необоснованные обвинения в фальсификации выборов стали доминирующими, что усилило движение против демократии, которое стремилось отменить результаты выборов.
Дезинформация, управляемая искусственным интеллектом, не просто рискует обмануть общественность, она также угрожает перегрузить и без того хрупкую информационную среду, создавая атмосферу фальши, недоверия и обмана.
"Степень доверия снизится, работа журналистов и других людей, которые пытаются распространять актуальную информацию, станет сложнее", - утверждает Бен Уинтерс, старший представитель Информационного центра электронной конфиденциальности.
Новые инструменты для старых тактик
Представьте себе мир, в котором манипулятивный контент производится по столь ничтожной цене и с такой легкостью, что становится обычным делом.
Дезинформация с помощью технологий - явление не новое, но инструменты искусственного интеллекта отлично подходят для того, чтобы усилить такую тактику.
Уже было много ранних стычек, свидетельствующих о том, что нас ждет. В начале года Сгенерированное искусственным интеллектом изображение Пентагона Взрыв оказал ощутимое влияние на фондовые рынки, хотя бы на несколько минут, прежде чем пользователи социальных сетей осудили вирусные изображения как подделку.
В Интернете появились визуальные образы, на которых Дональд Трамп, судя по всему, сталкивается с полицией, а Республиканский национальный комитет выпустил в эфир полностью сгенерированную ИИ рекламу, предвидящую катастрофы в случае переизбрания Байдена.
Еще одна вирусная фальшивка связана с губернатором Флориды и кандидатом от республиканцев Роном ДеСантисом, который опубликовал измененные изображения, на которых экс-президент Дональд Трамп изображен в Объятия с доктором Энтони Фаучи.
Компания X (тогда еще Twitter) добавила к оригинальному твиту тег, обозначив его как манипулируемый искусственным интеллектом.
Дональд Трамп стал известным благодаря тому, что уволил множество людей *на телевидении*.
Но когда речь зашла о Фаучи... pic.twitter.com/7Lxwf75NQm
- Военная комната ДеСантиса 🐊 (@DeSantisWarRoom) 5 июня 2023 года
В Великобритании премьер-министра Риши Сунака подделали, чтобы показать его наливать некачественную пинту пиваК большому неудовольствию пользователей X (тогда еще Twitter), до того как подлинность изображения была раскрыта.
Вдали от политической арены люди обманутые мошенниками с глубокими подделками, выдающими себя за друзей или членов семьи.
Несколько женщин и даже молодые девушки подверглись глубокому фальшивому "сексторту" - мошенники шантажировали их поддельными изображениями с нецензурной лексикой, о чем ФБР предупреждало в начале года.
Голосовые клоны Омара аль-Башира, бывшего лидера Судана, недавно появился на TikTokРаздувая пламя в стране, охваченной гражданской войной.
Список примеров можно продолжать до бесконечности, и кажется, что подделки ИИ освоили текст, изображения, видео и аудио.
ИИ снижает планку дезинформации
Инструменты с искусственным интеллектом усиливают традиционные тактики вмешательства в выборы как по качеству, так и по масштабу.
Как мы видели на выборах в Словакии, Джош Голдштейн из Центра безопасности и новейших технологий Джорджтаунского университета указывает на то, как иностранные игроки могут создавать убедительный контент на нужном языке.
Он заявил: "Генерируемые ИИ изображения и видеоролики могут создаваться гораздо быстрее, чем специалисты по проверке фактов успевают их просматривать и опровергать".
Существует также возможность использовать ИИ для целенаправленной массовой дезинформации. Например, в прошлом году два ультраправых активиста использовали робозвонки (роботизированные телефонные звонки, направленные на людей в массовом порядке) для распространения дезинформации о выборах среди тысяч чернокожих избирателей.
США готовятся к предвыборной дезинформации с помощью искусственного интеллекта
Поскольку в 2024 году предстоит провести несколько громких выборов, влияние кампаний по дезинформации, проводимых с помощью искусственного интеллекта, станет очевидным.
В ответ на растущее влияние искусственного интеллекта такие технологические гиганты, как Google, приняли меры, например, обязательную маркировку политических объявлений, в которых используется контент, улучшенный искусственным интеллектом.
Тем временем Конгресс обсуждает правила регулирования ИИ, а Федеральная избирательная комиссия (FEC) разрабатывает правила использования ИИ в политической рекламе.
В ответ на растущие опасения по поводу обманчивой силы искусственного интеллекта, компания FEC предложила правила об использовании искусственного интеллекта для глубокой фальсификации контента в политических кампаниях.
Это единогласное решение FEC, обнародованное 10 августа, стало поводом для 60-дневных публичных консультаций с экспертами, заинтересованными сторонами и широкой общественностью.
В ходе обсуждения в FEC Лиза Гилберт, вице-президент Public Citizen, подчеркнула необходимость пересмотреть то, как законы, касающиеся "мошеннического введения в заблуждение", могут пересекаться с глубокими подделками ИИ.
По мере того как мы приближаемся к 2024 году, новые модели ИИ от Meta, OpenAI и других разработчиков ИИ все больше наделяют людей способностью генерировать невероятно похожий на жизнь контент, так что эта проблема не станет проще - наоборот.