ИИ меняет политические кампании по всему миру, представляя инновационные стратегии и потенциал для дезинформации.
Политики от Торонто до Новой Зеландии и Чикаго уже используют искусственный интеллект в своих предвыборных кампаниях.
Например, кандидат в мэры Торонто использовал ИИ для создания антиутопических изображений приютов для бездомных, а политическая партия в Новой Зеландии разместила сгенерированное ИИ изображение фиктивное ограбление ювелирного магазина. В Чикаго возникли споры, когда аккаунт в Twitter, выдававший себя за новостное издание, использовал искусственный интеллект, чтобы продублировать голос кандидата в мэры, предположив, что он одобряет жестокость полиции.
Многие обеспокоены тем, что глубокие подделки могут быть использованы для очернения политиков и подрыва их репутации. Существующие механизмы защиты, включая сервисы, заявляющие о выявлении контента ИИ, представляются малоэффективными.
Предстоящие президентские выборы в США 2024 года уже демонстрируют влияние ИИ. Республиканский национальный комитет выпустил сгенерированный ИИ видеоролик с изображением наихудших сценариев после объявления о переизбрании Байдена. Демократы также экспериментируют с генерируемыми ИИ сообщениями о сборе средств.
В настоящее время предпринимаются усилия по регулированию ИИ: в Конгресс внесены законопроекты, предусматривающие необходимость отказа от ответственности в политических объявлениях, созданных ИИ.
Тем временем Американская ассоциация политических консультантов объявила использование глубокого фальшивого контента в политических кампаниях нарушение этического кодекса.
Тем не менее, некоторые политики, например кандидат в мэры Торонто Энтони Фьюри, используют ИИ. Фьюри использовал искусственный интеллект для создания контента, подкрепляющего его жесткую позицию по борьбе с преступностью, несмотря на явную искусственную природу некоторых изображений.
![](https://dailyai.com/wp-content/uploads/2023/06/furey-1-6439334-1686677432027.png)
Политические эксперты обеспокоены тем, что ИИ может распространять дезинформацию, что является одним из его самых актуальные угрозы.
По словам Бена Колмана, генерального директора Reality Defender, немаркированный ИИ-контент может нанести "необратимый ущерб" до того, как будет принята соответствующая мера. "Объяснять миллионам пользователей, что контент, который они уже видели и которым поделились, был поддельным, уже после того, как это произошло, - слишком мало и слишком поздно", - сказал он.
Реалистичные глубокие подделки ИИ также вызывают опасения по поводу феномена "дивидендов лжеца", когда политики могут отвергать подлинные, но компрометирующие кадры.
В качестве научного сотрудника Центра безопасности и новейших технологий Джорджтаунского университета Джош А. Голдштейн объясняетЕсли люди не могут доверять своим глазам и ушам, они могут просто сказать: "Кто знает?".