ИИ меняет политические кампании по всему миру, представляя инновационные стратегии и потенциал для дезинформации.
Политики от Торонто до Новой Зеландии и Чикаго уже используют искусственный интеллект в своих предвыборных кампаниях.
Например, кандидат в мэры Торонто использовал ИИ для создания антиутопических изображений приютов для бездомных, а политическая партия в Новой Зеландии разместила сгенерированное ИИ изображение фиктивное ограбление ювелирного магазина. В Чикаго возникли споры, когда аккаунт в Twitter, выдававший себя за новостное издание, использовал искусственный интеллект, чтобы продублировать голос кандидата в мэры, предположив, что он одобряет жестокость полиции.
Многие обеспокоены тем, что глубокие подделки могут быть использованы для очернения политиков и подрыва их репутации. Существующие механизмы защиты, включая сервисы, заявляющие о выявлении контента ИИ, представляются малоэффективными.
Предстоящие президентские выборы в США 2024 года уже демонстрируют влияние ИИ. Республиканский национальный комитет выпустил сгенерированный ИИ видеоролик с изображением наихудших сценариев после объявления о переизбрании Байдена. Демократы также экспериментируют с генерируемыми ИИ сообщениями о сборе средств.
В настоящее время предпринимаются усилия по регулированию ИИ: в Конгресс внесены законопроекты, предусматривающие необходимость отказа от ответственности в политических объявлениях, созданных ИИ.
Тем временем Американская ассоциация политических консультантов объявила использование глубокого фальшивого контента в политических кампаниях нарушение этического кодекса.
Тем не менее, некоторые политики, например кандидат в мэры Торонто Энтони Фьюри, используют ИИ. Фьюри использовал искусственный интеллект для создания контента, подкрепляющего его жесткую позицию по борьбе с преступностью, несмотря на явную искусственную природу некоторых изображений.
Политические эксперты обеспокоены тем, что ИИ может распространять дезинформацию, что является одним из его самых актуальные угрозы.
По словам Бена Колмана, генерального директора Reality Defender, немаркированный ИИ-контент может нанести "необратимый ущерб" до того, как будет принята соответствующая мера. "Объяснять миллионам пользователей, что контент, который они уже видели и которым поделились, был поддельным, уже после того, как это произошло, - слишком мало и слишком поздно", - сказал он.
Реалистичные глубокие подделки ИИ также вызывают опасения по поводу феномена "дивидендов лжеца", когда политики могут отвергать подлинные, но компрометирующие кадры.
В качестве научного сотрудника Центра безопасности и новейших технологий Джорджтаунского университета Джош А. Голдштейн объясняетЕсли люди не могут доверять своим глазам и ушам, они могут просто сказать: "Кто знает?".