В преддверии важнейших выборов этого года - не менее важных выборов в США - мы наблюдаем злого двойника глубокой фальшивой дезинформации - "дивиденды лжеца".
Глубокие подделки - это невероятно реалистичные копии аудио-, видео- или изображений, созданные искусственным интеллектом.
Есть множество примеров того, как глубокие подделки влияют на людей и общество: от сгенерированного ИИ изображения Пентагона до осязаемого повлиявшие на фондовый рынок в прошлом году на голос робокопа подражая президенту Байдену, на этой неделе.
Однако глубокие подделки полезны не только для искажения правды - они также отлично подходят для ее опровержения. Это получило название "дивиденды лжеца", по сути описывающее выгоду, которую получает человек, выдавая подлинный контент за фальшивку.
Например, в ответ на рекламу Fox News, демонстрирующую его прошлогодние публичные промахи, бывший президент Дональд Трамп заявил, что кадры были созданы искусственным интеллектом.
Он осудил рекламу в посте на сайте Truth Social, заявив: "Извращенцы и неудачники из несостоявшегося и распущенного проекта "Линкольн" и другие используют искусственный интеллект в своей фальшивой телевизионной рекламе, чтобы выставить меня таким же плохим и жалким, как продажный Джо Байден, а это не так-то просто сделать".
В "Проекте Линкольна" опровергли утверждение Трампа, указав, что в рекламе были приведены хорошо задокументированные случаи из его президентства.
Либби Ланге, аналитик из поставщик аналитических услуг Graphikaповторяет опасения по поводу дивидендов лжеца, заявляя: "ИИ дестабилизирует саму концепцию правды. Если все может быть поддельным, и если каждый утверждает, что все поддельное или каким-то образом манипулируется, то нет никакого смысла в истине".
Во всем мире политики регулярно используют ИИ в качестве козла отпущения. Например, скандальное видео, в котором тайваньский политик намекает на внебрачную связь, было быстро отвергнуто как потенциально созданное ИИ.
Аналогичным образом в индийском штате Тамилнад один из политиков опроверг утечку аудиозаписи, назвав ее "сгенерированной машиной", хотя ее подлинность остается под вопросом.
Мы также видели изображения военных преступлений в Израиле, Палестине и Украине, сделанные искусственным интеллектом, например, изображение сожженного младенца, которым Бен Шапиро поделился с миллионами подписчиков, прежде чем оно было дискредитирована как подделка.
Были и неполитические примеры, например, голосовой ролик, якобы принадлежащий директору школы округа Балтимор и содержащий расистские высказывания. Утверждалось, что их генерирует искусственный интеллект, но подтвердить это без дополнительного контекста довольно сложно.
Глубокие подделки стали горячей темой недавней выставки Всемирный экономический форум в ДавосеНо усилия по их пресечению до сих пор были слабыми и неэффективными. Технологические компании изучают способы автоматической проверки контента, генерируемого искусственным интеллектом, но достоверно отличить настоящие СМИ от фальшивых могут только эксперты.
И даже эксперты ошибаются, поскольку есть случаи, когда специализированные ИИ-детекторы приходят к спорным выводам о подлинности изображения.
А если предположить, что изображения "официально" классифицируются как настоящие или поддельные, но вердикт оказывается неверным, можно только представить, какой ад может разразиться.