2023 год стал свидетелем потока глубоких фальшивых изображений, созданных с помощью генераторов изображений с искусственным интеллектом: от фальшивого изображения взрыва в Пентагоне до изображений насилия над детьми.
Технология глубокой подделки также генерирует надежные копии практически любого голоса, от Джонни Кэш поет песню Barbie Girl на Фальшивые речи бывшего президента Судана Омар аль-Башир.
Поэтому, пожалуй, неудивительно, что глубокие подделки просочились в и без того неспокойный цифровой ландшафт, окружающий нынешний конфликт между Израилем и Хамасом.
В целом, по мнению аналитиков, дезинформация с помощью ИИ была ограничена - в социальных сетях циркулирует достаточно реального висцерального контента. Однако сама перспектива появления подделок, сгенерированных ИИ, заставляет людей сомневаться в легитимности подлинных изображений, видео и аудиоклипов.
Это называется "дивиденды лжеца". Реальный контент теперь потенциально может быть отнесен к сгенерированному ИИ, что делает его фальшивым в глазах зрителей.
Социальные сети создают идеальную арену для распространения подозрений и паранойи, связанных с цифровым контентом, как лесной пожар - возможность обозначить что-то, что кажется настоящим, как подделку, и наоборот, многие используют для укрепления своих взглядов.
Билл Марселлино из RAND Corporation подчеркивает эту дилемму: "Что произойдет, если буквально все, что вы видите в цифровом виде, может быть синтетическим?".
Хани Фарид, специалист по цифровой криминалистике и дезинформации с помощью ИИ, так прокомментировал конфликт между Израилем и Хамасом: "Даже по привычным нам стандартам тумана войны этот конфликт особенно запутан... Призрак глубоких подделок теперь гораздо, гораздо значительнее - для этого не нужны десятки тысяч, достаточно нескольких, и тогда вы отравляете колодец, и все становится подозрительным".
Примечательно то, как быстро развиваются технологии глубокой подделки. Если в 2022 году выявление несоответствий в сгенерированных ИИ изображениях было простым и интуитивно понятным, то сейчас для этого часто требуется специальный анализ.
По мере того как продолжаются эмоционально заряженные дискуссии о Газе, особенно на платформах социальных сетей, эрозия доверия становится все более очевидной.
Фальшивый контент вызывает споры и, следовательно, разоблачения
Проблема сомнительного фальшивого контента в том, что он вызывает дискуссии и, в свою очередь, впечатления, лайки и комментарии.
Например, пост на сайте X, собравший 1,8 миллиона просмотров, ложно изображал болельщиков "Атлетико Мадрид". с огромным палестинским флагом. Пользователи отметили искаженные фигуры на изображении, свидетельствующие о генерации ИИ.
В другом сообщении с аккаунта, связанного с ХАМАС, на платформе X, как сообщила газета New York Times, было неточно изображено палаточное поселение для перемещенных израильтян с неправильным рисунком флага. Это сообщение было впоследствии удалено.
Больше внимания и пристального внимания было направлено на кадры без явных признаков манипуляций ИИ. В качестве примера можно привести видеозапись пресс-конференции директора больницы в Газе, которую некоторые назвали "сгенерированной ИИ", несмотря на то что несколько источников снимали это событие с разных ракурсов.
Пытаясь отделить правду от контента, сгенерированного искусственным интеллектом, некоторые пользователи социальных сетей прибегают к помощи инструментов обнаружения. Эти инструменты утверждают, что выявляют цифровые манипуляции, однако они оказались непоследовательными и ненадежными.
В первые дни конфликта премьер-министр Нетаньяху опубликовал на платформе X серию изображений, утверждая, что на них запечатлены "ужасающие фотографии убитых и сожженных" ХАМАСом младенцев.
Когда консервативный комментатор Бен Шапиро обратил внимание на одно из изображений на платформе X, он столкнулся с массовыми обвинениями в распространении контента, сгенерированного искусственным интеллектом. Мы не будем вставлять твит напрямую из-за ужасающего характера изображения, но вы можете посмотреть Обсудите пост Шапиро здесь.
В сообщении, которое набрало более 21 миллиона просмотров, прежде чем было удалено, утверждалось, что у него есть доказательства того, что изображение ребенка было поддельным, и приводился скриншот из программы AI or Not, инструмента обнаружения, на котором изображение было помечено как "сгенерированное искусственным интеллектом".
Позже компания пересмотрела эту оценку для платформы X, объяснив, что результат был "неубедительным" из-за сжатия изображения и изменений, которые скрывали идентифицирующие детали. Компания также сообщила, что в ответ на это она усовершенствовала свой инструмент обнаружения.
Мы следим за дискуссией в Twitter, как всегда делаем в случае спорных случаев, требующих особого внимания. Мы подтвердили с помощью нашей системы, что результат неубедителен из-за того, что фотография была сжата и изменена, чтобы размыть табличку с именем. https://t.co/uZihVMD7Cq
- AI or Not (@Ai_or_Not) 13 октября 2023 года
Анатолий Квитницкий, генеральный директор компании ИИ или нет, размышляли об этических последствиях своей технологии: "Мы поняли, что каждая технология, которая была создана, когда-то использовалась во зло... Мы пришли к выводу, что пытаемся делать добро, собираемся поддерживать службу в активном состоянии и делать все возможное, чтобы убедиться, что мы являемся распространителями правды. Но мы задумались над тем, не вносим ли мы еще больше путаницы, еще больше хаоса?"
Все это приводит к невероятной запутанной ситуации, которая усиливает и без того зашкаливающие эмоции.
ИИ как дает, так и забирает общественные дискуссии и правду. Как люди приспособятся к его присутствию в социальных сетях и смогут ли технологические компании когда-нибудь вернуть контроль?