Водяные знаки AI на изображениях не работают и, вероятно, никогда не будут работать

3 октября 2023 года

глубокий искусственный интеллект

Компании пытаются использовать цифровые водяные знаки для идентификации изображений, созданных искусственным интеллектом, но последние исследования показывают, что их усилия могут оказаться тщетными.

Группа исследователей из Университета Мэриленда протестировала самые современные методы водяного знака на изображениях, и результаты оказались не самыми лучшими.

Сохейл Фейзи, профессор информатики из Университета Мэриленда, говорит, что его команда протестировала все существующие методы создания водяных знаков и сломала их все.

Сайт научная статья признает, что водяные знаки представляются наиболее перспективной защитой от глубоких подделок, но затем описывает недостатки существующих подходов.

Два основных метода нанесения водяных знаков - это низкое и высокое возмущение.

Метод слабого возмущения предполагает внесение в изображение тонких изменений, незаметных для глаза, но при этом поддающихся цифровой обработке. Эти методы продемонстрировали компромисс между эффективностью и ложными срабатываниями. Чем лучше метод выявлял подделку ИИ, тем выше была вероятность ошибочной идентификации реального изображения как подделки.

Сильное возмущение предполагает добавление видимого элемента к изображению, что считается более надежным подходом. Исследователи смогли удалить и все эти водяные знаки. Их подход "атаки противника с подменой модели" удалил даже более тонкие водяные знаки в виде кольца дерева.

Поскольку искусственный интеллект продолжает способствовать созданию и распространению дезинформации, нам нужен эффективный способ определить, что изображение или видео было создано искусственным интеллектом. Однако, согласно этому исследованию, эффективное решение становится все более маловероятным, хотя и не невозможным.

Команда Feizi протестировала только доступные водяные знаки. Google и Meta работают над собственными технологиями водяных знаков, но они пока недоступны для тестирования.

Тем не менее, Фейзи считает, что их исследование показывает, что даже крупные технологические компании не смогут предложить надежное решение. A Работа, опубликованная исследователями из Калифорнийского университета пришли к выводу, что "все невидимые водяные знаки уязвимы".

По мере совершенствования генеративного ИИ идентифицировать изображение, созданное ИИ, будет все сложнее. Поэтому даже если коммерческие генераторы изображений с искусственным интеллектом, такие как ДАЛЛ-И или Midjourney используют эффективный водяной знак, ничто не обязывает другие модели делать это.

Другая проблема, на которую обращает внимание исследование Фейзи, заключается в том, что им удалось внедрить водяные знаки ИИ в изображения, которые не были сгенерированы ИИ.

Проблема заключается в том, что, получив фотодоказательства, злоумышленники могут нанести на них водяной знак ИИ, чтобы дискредитировать доказательства.

Посмотрим, как водяные знаки Google и Meta будут противостоять атакам грубой силы команды Фейзи. Пока же, похоже, нам придется постоянно напоминать себе, что видеть - не значит верить.

 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения