Глубокие подделки быстро стали серьезной социальной и политической проблемой и возможной угрозой честности выборов.
Незадолго до выборов в Словакии, которые проходили в условиях жесткого контроля, в городе был обнаружен спорный аудиоклип В социальных сетях появились сообщения, в которых голос, удивительно похожий на голос лидера Прогрессивной партии Словакии Михала Шимечки, говорил о плане манипулирования выборами.
Из-за близости сообщения ко времени проведения опроса было сложно предупредить людей о том, что это фальшивка.
Вскоре после этого разгорелся еще один спор, когда лидер Лейбористской партии Великобритании был услышан за лаем нецензурных выражений в аудиоклипе, размещенном на сайте X. В соответствующем сообщении говорилось: "Я получил аудиозапись того, как Кейр Стармер словесно оскорбляет своих сотрудников на конференции [Лейбористской партии]", - говорится в аккаунте X. "Этот отвратительный хулиган собирается стать нашим следующим премьер-министром".
В тот же период аккаунт на TikTok был удален после того, как было обнаружено, что он производство поддельных клипов заключенного в тюрьму экс-президента Судана Омара аль-Башира, раздувая пламя в стране, уже охваченной гражданской войной.
Ролики во всех трех случаях имели нечто общее: они были поддельными и, скорее всего, создавались с помощью искусственного интеллекта.
Если видео и изображения, созданные искусственным интеллектом, распространены повсеместно и создают свои проблемы, то поддельные аудиоролики обнаружить сложнее, и они часто проскальзывают сквозь сеть. Сами голоса, как правило, очень аутентичны; как отметил Джек Брюстер из NewsGuard, "Обама все еще выглядит немного пластмассовым, когда плохие актеры используют его лицо. Но аудиозапись его голоса довольно хороша - и я думаю, что в этом и есть главное отличие".
В свете этих опасений группа сенаторов предложила "Закон о запрете подделок" - законопроект, направленный на наказание тех, кто создает или распространяет аудио- и видеоматериалы, созданные искусственным интеллектом, без согласия оригинала.
Хани Фарид, профессор цифровой криминалистики Калифорнийского университета в Беркли, говорит"Это не гипотеза. Вы говорите о насилии, вы говорите о краже выборов, вы говорите о мошенничестве - [это имеет] реальные последствия для людей, для обществ и для демократий".
Приложения для клонирования голоса получили значительное развитие: такие платформы, как Eleven Labs, предлагают инструменты, позволяющие создать "глубоко подделанный" голос за номинальную ежемесячную плату всего в $5.
Хани Фарид, подчеркивая ответственность гигантов социальных сетей, заявил: "Они могли бы перекрыть воду прямо сейчас, если бы захотели. Но это плохо для бизнеса".
Может ли искусственный интеллект с глубокой подделкой действительно повлиять на ход выборов?
Глубокие подделки уже продемонстрировали свое влияние на реальный мир: в начале года фальшивое изображение взрыва в Пентагоне вызвало временное падение рынков, хотя и всего на несколько минут.
Эти фальшивые клипы, видеоролики и видеозаписи угрожают и без того хрупкому информационному ландшафту, где подозрительность зачастую высока, а границы дозволенного ограничены.
Хотя оценить истинное влияние глубоких подделок ИИ на политический дискурс и поведение избирателей крайне сложно, это снижает планку дезинформации.
Бен Винтерс, старший представитель Electronic Privacy Information Center, утверждает: "Степень доверия снизится, работа журналистов и других людей, которые пытаются распространять актуальную информацию, станет сложнее".
Более того, хотя ложное вовлечение политиков в сценарии, которые вредят их репутации, является одной из наиболее распространенных тактик таких кампаний, они также могут привести к "дивидендам лжеца", когда становится возможным опровергнуть правдивые обвинения как фальшивые.
Борьба с глубокими подделками ИИ требует сочетания более совершенных фильтров контента ИИ в социальных сетях и просвещения населения. Однако качество самих глубоких подделок будет только улучшаться.