Исследовательская лаборатория DeepMind компании Google представила бета-версию SynthID, своего нового инструмента для нанесения водяных знаков и идентификации изображений, созданных искусственным интеллектом.
Озабоченность по поводу глубоких подделок и потенциала ИИ для продвижения дезинформации выявила необходимость в способе обнаружения изображений, сгенерированных ИИ.
Обычные водяные знаки, добавляемые к изображениям в целях защиты авторских прав, можно легко удалить путем обрезки, добавления фильтров или редактирования. Даже метаданные могут быть удалены с изображений.
SynthID встраивает цифровой водяной знак непосредственно в пиксели изображения. Количество отредактированных пикселей настолько мало, что водяной знак незаметен для человеческого глаза. Масштабирование, кадрирование или уменьшение разрешения изображения не приведет к удалению водяного знака.
Если бы вы знали, где находится водяной знак, вы могли бы технически удалить его, но при этом вы бы повредили изображение.
Google делает SynthID доступным для некоторых своих клиентов, использующих генератор изображений Imagen на платформе Google Vertex AI.
Пользователи, создавшие изображение с помощью Imagen, могут добавить водяной знак или использовать SynthID для определения того, было ли изображение создано с помощью Imagen. Однако это не самый надежный метод, поскольку сообщение о том, что DeepMind признал.
"Инструмент предоставляет три уровня доверия для интерпретации результатов идентификации водяных знаков. Если цифровой водяной знак обнаружен, часть изображения, скорее всего, сгенерирована программой Imagen".
Сайт Сообщение в блоге DeepMind также отметил, что "SynthID не является надежной защитой от экстремальных манипуляций с изображениями".
Будет ли SynthID иметь какое-либо значение?
Google не считает этот инструмент панацеей от поддельных изображений, но это только начало. Если метод окажется эффективным и получит распространение среди других генераторов изображений с искусственным интеллектом, то, возможно, распознать подделку станет проще.
Даже если будет разработан надежный метод, основанный на чем-то вроде SynthID, как вы будете его применять? Существует так много генераторов изображений ИИ, которые не поддаются никакому регулированию.
Если вы не можете запретить людям использовать ИИ генерирует изображения насилия над детьмиКак же тогда заставить их добавлять водяной знак на поддельные изображения?
Еще одна проблема для таких компаний, как Google, заключается в том, что для того, чтобы инструмент вызывал доверие, он должен быть надежным. Если вы скажете людям, что политически окрашенное изображение с вероятностью 75% может оказаться подделкой, это не избавит их от споров о его подлинности.
Добавление водяного знака типа SynthID на поддельное изображение кажется отличной идеей, но что мешает кому-то добавить такой же водяной знак на подлинное изображение?
Критическое мышление и здоровая доля скептицизма могут стать нашей лучшей защитой от подделок ИИ еще на некоторое время.