Поскольку в этом году мир ожидает несколько громких выборов, в блоге OpenAI описаны методы защиты демократического процесса от неправомерного использования технологий искусственного интеллекта.
OpenAI's стратегия В центре внимания находятся три основные области: предотвращение злоупотреблений, повышение прозрачности и улучшение доступа к точной информации о голосовании.
Компания активно работает над тем, чтобы пресечь вредоносные подделки, ограничить операции по влиянию на мнение избирателей с помощью искусственного интеллекта и пресечь деятельность чат-ботов, выдающих себя за политических кандидатов.
OpenAI также заявила, что активно совершенствует свои инструменты, чтобы повысить точность фактов, уменьшить предвзятость и отклонять запросы, которые могут повредить честности выборов, например, отклонять запросы на создание изображений реальных людей, включая кандидатов.
По их словам, "мы ожидаем и стремимся к тому, чтобы люди использовали наши инструменты безопасно и ответственно, и выборы не являются исключением".
Это включает в себя тщательную проверку новых систем, сбор отзывов пользователей и партнеров, а также разработку мер по снижению уровня безопасности.
Повышение прозрачности
Глубокие подделки - враг номер один для индустрии в данный момент.
Недавние инциденты, такие как глубокая фальшивая реклама выдавая себя за премьер-министра Великобритании Риши Сунака на Facebook, охвативший, по оценкам, 400 000 человек, и потенциальное вмешательство в словацкие и Выборы в Бангладеш проиллюстрировали потенциал ИИ для вмешательства в политику.
Искусственный интеллект уже развернута в преддверии выборов в СШАКандидаты используют технологию для создания рекламных изображений.
OpenAI продвигает усилия по повышению прозрачности. Они планируют внедрить цифровые учетные данные Коалиции по проверке достоверности и аутентичности контента для изображений, созданных в DALL-E 3, которые используют криптографию для кодирования информации о проверке достоверности контента.
Кроме того, разрабатывается новый классификатор происхождения для обнаружения изображений, созданных DALL-E. "Наше внутреннее тестирование показало многообещающие первые результаты", - заявляет OpenAI, планируя предоставить этот инструмент журналистам, платформам и исследователям для обратной связи.
OpenAI также интегрирует ChatGPT с новостными репортажами в реальном времени по всему миру, стремясь предоставить пользователям прозрачные источники для их запросов.
В США OpenAI сотрудничает с Национальной ассоциацией государственных секретарей (NASS), чтобы направить пользователей ChatGPT на сайт CanIVote.org для получения авторитетной информации о голосовании в США.
Они намерены использовать результаты этого партнерства для разработки стратегий в других странах.
Остаются острые вопросы: достаточно ли этого? Могут ли компании, занимающиеся разработкой искусственного интеллекта, решить эти проблемы на практике, или проблема уже вышла за рамки эффективного контроля?