На Мюнхенской конференции по безопасности коалиция из 20 технологических гигантов, включая OpenAI, Meta, Microsoft и других, объявила о совместных усилиях по борьбе с обманчивым контентом ИИ, влияющим на выборы по всему миру.
Это происходит на фоне растущих опасений, что созданные ИИ глубокие подделки могут манипулировать избирательными процессами, особенно в связи с приближением крупных выборов в нескольких странах в этом году.
Мы уже видели Глубокие подделки играют свою роль по крайней мере, на выборах в Пакистане, Индонезии, Словакии и Бангладеш.
Это новое соглашение включает в себя обязательства по разработке инструментов для обнаружения и устранения вводящих в заблуждение средств массовой информации, созданных искусственным интеллектом, повышению осведомленности общественности об обманчивом контенте и принятию оперативных мер по удалению такого контента со своих платформ.
Правда в том, что мы слышали это уже много раз. Так что же изменилось сейчас?
Хотя конкретные сроки внедрения остаются неясными, компании подчеркнули необходимость коллективного подхода к борьбе с этой эволюционирующей угрозой.
Технологические компании обязались внедрить совместные инструменты для обнаружения и смягчения последствий распространения вредоносного предвыборного контента, созданного ИИ, включая такие методы, как нанесение водяных знаков для подтверждения происхождения контента и внесения изменений. Они также обязались обеспечить прозрачность своих усилий и оценить риски, связанные с их генеративными моделями ИИ.
"Я думаю, что полезность этого (соглашения) заключается в широте круга компаний, подписавших его", - сказал Ник Клегг, президент по глобальным вопросам Meta Platforms.
"Все это хорошо, если отдельные платформы разрабатывают новые политики обнаружения, проверки подлинности, маркировки, водяных знаков и т. д., но если не будет более широкого обязательства делать это в рамках общей совместимости, мы останемся с солянкой из различных обязательств".
Опять же, ничего такого, о чем мы не слышали раньше. Было заключено несколько межотраслевых соглашений, но нет ни одного эффективного плана по борьбе с глубокими подделками.
Например, MLCommons сотрудничает с Big Tech для определения контрольных показателей безопасности, компании, которые занимаются разработкой водяных знаков, и присоединился к форуму Frontier ModelОпять же, чтобы выработать "единый подход". Эти три общеотраслевых соглашения только что пришли на ум, но, безусловно, существует и множество других.
Глубокие подделки нелегко обнаружить, особенно в больших масштабах. Они стали настолько близки к настоящим, что выявить их с помощью искусственного интеллекта или алгоритмических методов - задача не из легких. исключительно трудный.
В ответ на это технологические компании стали помечать контент метаданными, идентифицируя его как созданный искусственным интеллектом, но как при этом определить цель изображения?
Метаданные тоже легко удалить из файла. Кроме того, всегда найдутся компании, работающие в сфере ИИ, которые не будут соблюдать соглашения и обходить существующие меры контроля.
Дана Рао, директор по доверию компании Adobe, объяснил, как и почему этот контент оказался эффективным: "Аудио, видео и изображения имеют эмоциональную связь, - сказал он. "Ваш мозг настроен на то, чтобы верить таким медиа".
Действительно, глубокие фейки распространяются еще долго после того, как их объявили подделкой. Хотя трудно определить, насколько сильно они меняют наше поведение, масштабы их воздействия - контент просматривают миллионы людей одновременно - не позволяют рисковать.
Дело в том, что мы можем ожидать новых инцидентов и споров, связанных с искусственным интеллектом.
Индивидуальная осведомленность и критическое мышление станут главным оружием человечества в борьбе с негативными последствиями.