Генерируемые искусственным интеллектом фальшивые аудиоклипы продолжают вызывать споры

14 октября 2023 года

X Мета

Глубокие подделки быстро стали серьезной социальной и политической проблемой и возможной угрозой честности выборов. 

Незадолго до выборов в Словакии, которые проходили в условиях жесткого контроля, в городе был обнаружен спорный аудиоклип В социальных сетях появились сообщения, в которых голос, удивительно похожий на голос лидера Прогрессивной партии Словакии Михала Шимечки, говорил о плане манипулирования выборами. 

Из-за близости сообщения ко времени проведения опроса было сложно предупредить людей о том, что это фальшивка. 

Вскоре после этого разгорелся еще один спор, когда лидер Лейбористской партии Великобритании был услышан за лаем нецензурных выражений в аудиоклипе, размещенном на сайте X. В соответствующем сообщении говорилось: "Я получил аудиозапись того, как Кейр Стармер словесно оскорбляет своих сотрудников на конференции [Лейбористской партии]", - говорится в аккаунте X. "Этот отвратительный хулиган собирается стать нашим следующим премьер-министром".

В тот же период аккаунт на TikTok был удален после того, как было обнаружено, что он производство поддельных клипов заключенного в тюрьму экс-президента Судана Омара аль-Башира, раздувая пламя в стране, уже охваченной гражданской войной. 

Ролики во всех трех случаях имели нечто общее: они были поддельными и, скорее всего, создавались с помощью искусственного интеллекта. 

Если видео и изображения, созданные искусственным интеллектом, распространены повсеместно и создают свои проблемы, то поддельные аудиоролики обнаружить сложнее, и они часто проскальзывают сквозь сеть. Сами голоса, как правило, очень аутентичны; как отметил Джек Брюстер из NewsGuard, "Обама все еще выглядит немного пластмассовым, когда плохие актеры используют его лицо. Но аудиозапись его голоса довольно хороша - и я думаю, что в этом и есть главное отличие".

В свете этих опасений группа сенаторов предложила "Закон о запрете подделок" - законопроект, направленный на наказание тех, кто создает или распространяет аудио- и видеоматериалы, созданные искусственным интеллектом, без согласия оригинала.

Хани Фарид, профессор цифровой криминалистики Калифорнийского университета в Беркли, говорит"Это не гипотеза. Вы говорите о насилии, вы говорите о краже выборов, вы говорите о мошенничестве - [это имеет] реальные последствия для людей, для обществ и для демократий".

Приложения для клонирования голоса получили значительное развитие: такие платформы, как Eleven Labs, предлагают инструменты, позволяющие создать "глубоко подделанный" голос за номинальную ежемесячную плату всего в $5.

Хани Фарид, подчеркивая ответственность гигантов социальных сетей, заявил: "Они могли бы перекрыть воду прямо сейчас, если бы захотели. Но это плохо для бизнеса".

Может ли искусственный интеллект с глубокой подделкой действительно повлиять на ход выборов?

Глубокие подделки уже продемонстрировали свое влияние на реальный мир: в начале года фальшивое изображение взрыва в Пентагоне вызвало временное падение рынков, хотя и всего на несколько минут. 

Эти фальшивые клипы, видеоролики и видеозаписи угрожают и без того хрупкому информационному ландшафту, где подозрительность зачастую высока, а границы дозволенного ограничены. 

Хотя оценить истинное влияние глубоких подделок ИИ на политический дискурс и поведение избирателей крайне сложно, это снижает планку дезинформации.

Бен Винтерс, старший представитель Electronic Privacy Information Center, утверждает: "Степень доверия снизится, работа журналистов и других людей, которые пытаются распространять актуальную информацию, станет сложнее".

Более того, хотя ложное вовлечение политиков в сценарии, которые вредят их репутации, является одной из наиболее распространенных тактик таких кампаний, они также могут привести к "дивидендам лжеца", когда становится возможным опровергнуть правдивые обвинения как фальшивые. 

Борьба с глубокими подделками ИИ требует сочетания более совершенных фильтров контента ИИ в социальных сетях и просвещения населения. Однако качество самих глубоких подделок будет только улучшаться.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения