Ведущие компании в области искусственного интеллекта обязуются разработать методы создания водяных знаков

22 июля 2023 года

Водяной знак искусственного интеллекта

В попытке бороться с фальшивками и дезинформацией 7 компаний, занимающихся разработкой искусственного интеллекта, которые на этой неделе подписали соглашение с США о добровольных рамках в области искусственного интеллекта, обязались наносить водяные знаки на контент, созданный искусственным интеллектом.

Участники добровольные рамкиВ число участников конкурса, объявленного Белым домом 21 июня, входят Google, OpenAI, Microsoft, Meta, Amazon, Anthropic и Inflection.

В рамках этой структуры эти компании обязались разработать водяные знаки, которые помогут общественности определить происхождение контента, созданного искусственным интеллектом, и снизить уровень обмана.

Как и обычный водяной знак, водяной знак ИИ прикрепляется к изображению, видео, аудиофайлу или тексту. 

Нанесение водяных знаков на контент, созданный искусственным интеллектом, может уменьшить число мошенничеств, фальшивых вирусных кампаний и секс-вымогательств. "Этот водяной знак позволит процветать творчеству с помощью ИИ, но при этом снизит риски мошенничества и обмана", - заявили в Белом доме. 

В запись в блоге В документе, опубликованном вскоре после заявлений Белого дома, OpenAI подробно описала свое соглашение о "разработке надежных механизмов, включая системы проверки происхождения и/или водяных знаков для аудио- и визуального контента". Она также разработает "инструменты или API, позволяющие определить, был ли тот или иной контент создан с помощью их системы".

Google планирует повысить надежность информации за счет интеграции метаданных и "других инновационных методов" в дополнение к водяным знакам. 

В пятницу Белый дом объявил о других мерах предосторожности, включая проведение внутреннего и внешнего тестирования систем искусственного интеллекта перед выпуском, увеличение инвестиций в кибербезопасность и развитие сотрудничества в отрасли для снижения рисков ИИ.

OpenAI заявила, что эти обязательства знаменуют собой "важный шаг в продвижении значимого и эффективного управления ИИ как в США, так и во всем мире".

Компания также пообещала "инвестировать в исследования в областях, которые могут помочь в регулировании, например, в методы оценки потенциально опасных возможностей моделей ИИ".

Ник Клегг, президент Meta по глобальным вопросам, поддержал мнение OpenAI, назвав эти обязательства "важным первым шагом в обеспечении ответственного подхода к созданию ИИ".

Будут ли работать водяные знаки искусственного интеллекта?

Нанесение водяных знаков на контент, созданный искусственным интеллектом, хотя и является концептуально привлекательным, но далеко не безотказным. 

Изображения, видео и аудиозаписи могут содержать крошечные слабые графические или звуковые сигналы, свидетельствующие об их происхождении, созданные искусственным интеллектом.

Аналогичным образом, интеграция метаданных в файлы, созданные ИИ, может предоставить информацию об источнике и процессе создания контента. Однако удаление водяных знаков с помощью других инструментов ИИ или удаление метаданных, скорее всего, не составит труда. 

Если водяные знаки можно удалить, то контент, созданный ИИ без водяных знаков, внезапно приобретает легитимность. Отсутствие водяного знака может быть использовано для того, чтобы утверждать, что изображение является подлинным, в то время как это не так - потенциально опасный компромисс. 

Когда речь заходит о тексте, сгенерированном искусственным интеллектом, прямого решения не существует. В отличие от изображений или аудио, в текст нелегко встроить водяные знаки. 

Основной подход здесь - пропустить текст через детекторы ИИ, которые анализируют недоумение текста - показатель того, насколько вероятно, что модель ИИ предскажет заданную последовательность слов, - чтобы определить, является ли он сгенерированным ИИ. 

У детекторов ИИ есть свои недостатки. Они часто дают большое количество ложных срабатываний, что приводит к ошибочной пометке контента, созданного не ИИ. 

Эта проблема усугубляется при анализе текстов, написанных не носителями английского языка, которые могут использовать менее распространенные фразы или нетипичный синтаксис, что еще больше увеличивает количество ложных срабатываний. Недавнее исследование По этим причинам они не рекомендуют использовать детекторы ИИ в образовательных учреждениях и при приеме на работу.

Кроме того, по мере развития моделей ИИ грань между контентом, написанным человеком, и контентом, написанным ИИ, становится все более размытой. По мере совершенствования ИИ в имитации человеческого стиля письма детекторы, основанные на недоумении, будут становиться все менее надежными. 

Хотя водяные знаки - это шаг к повышению прозрачности и подотчетности контента, создаваемого искусственным интеллектом, это не простое решение и не является окончательным сдерживающим фактором или "серебряной пулей".

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения