Израильско-газанский конфликт стал фоном для развивающегося использования искусственного интеллекта для создания глубоких подделок, что стало проблемой для Израиля, Газы и внешних наблюдателей.
Среди различных снимков из Газы некоторые особенно поражают воображение. "Окровавленные, брошенные младенцы", как их описывают, получили известность в Интернете.
Одним из изображений сожженного младенца поделились такие авторитеты, как Бен Шапиро, и оно достигло миллионов людей, прежде чем было втянутый в споры за то, что они созданы искусственным интеллектом.
Многие из этих поддельных изображений демонстрируют тонкие, но очевидные признаки цифровых манипуляций, например "пальцы, которые странно изгибаются, или глаза, которые мерцают неестественным светом". "Однако обнаружить эти признаки в самый неподходящий момент очень сложно.
Кроме того, качество изображений разнится. Некоторые из них - это переработанные фотографии из разных конфликтов, а другие - полностью сгенерированные искусственным интеллектом. Со временем они станут только реалистичнее.
По словам генерального директора компании CREOpoint Жан-Клода Голденштейна, "будет еще хуже - намного хуже - прежде чем станет лучше". Его компания собрала базу данных самых вирусных фальшивок из этого конфликта, демонстрируя растущую роль искусственного интеллекта в создании реальности в конфликтах.
Основная цель глубоких подделок - вызвать шок и страдание, поэтому они часто направлены на детей, чтобы усилить эмоциональную реакцию.
Как отметил Имран Ахмед, генеральный директор Центра по борьбе с цифровой ненавистью, объясняет"Дезинформация направлена на то, чтобы вы с ней столкнулись".
Глубокие подделки постоянно растут
Глубокие подделки - это повсеместный эффект или побочный эффект развития ИИ. Глубокие подделки ИИ не только рискуют быть воспринятыми как подлинные, но и рискуют, что реальный контент будет воспринят как поддельный.
Более того, это явление, конечно, не ограничивается конфликтом в Газе. Аналогичный контент, созданный искусственным интеллектом, появился во время вторжения России в Украину в 2022 году, включая измененное видео с украинским президентом Зеленским.
Другие примеры - поддельные изображения политиков, такие как Трамп обнимает Фаучи. И дело не ограничивается изображениями - фальшивые голоса имеют причастность политиков к разговорам в которых они не участвовали или которые вообще не происходили.
В ответ на это технологические компании по всему миру разрабатывают фильтры искусственного интеллекта, способные обнаруживать глубокие подделки, проверять подлинность изображений и анализировать текст на предмет дезинформации. Google, YouTube и Meta недавно пообещали маркировать контент, созданный искусственным интеллектом, но технически добиться этого довольно сложно.
Мы также стали свидетелями появления множества сервисов по проверке фактов, призванных выявлять сомнительный контент, но их работа нестабильна и медленна. И каковы последствия того, что "авторитетный" специалист по проверке фактов ошибочно называет что-то настоящим или поддельным?
В преддверии важнейших выборов, не менее важных, чем президентские выборы в США в 2024 году, глубокие подделки вызывают сильную паранойю. Их воздействие еще не достигло потолка.