OpenAI обсуждает методы борьбы с политической дезинформацией, генерируемой ИИ

16 января 2024 года

Утечка данных для входа в систему OpenAI

Поскольку в этом году мир ожидает несколько громких выборов, в блоге OpenAI описаны методы защиты демократического процесса от неправомерного использования технологий искусственного интеллекта. 

OpenAI's стратегия В центре внимания находятся три основные области: предотвращение злоупотреблений, повышение прозрачности и улучшение доступа к точной информации о голосовании.

Компания активно работает над тем, чтобы пресечь вредоносные подделки, ограничить операции по влиянию на мнение избирателей с помощью искусственного интеллекта и пресечь деятельность чат-ботов, выдающих себя за политических кандидатов.

OpenAI также заявила, что активно совершенствует свои инструменты, чтобы повысить точность фактов, уменьшить предвзятость и отклонять запросы, которые могут повредить честности выборов, например, отклонять запросы на создание изображений реальных людей, включая кандидатов.

По их словам, "мы ожидаем и стремимся к тому, чтобы люди использовали наши инструменты безопасно и ответственно, и выборы не являются исключением". 

Это включает в себя тщательную проверку новых систем, сбор отзывов пользователей и партнеров, а также разработку мер по снижению уровня безопасности. 

Повышение прозрачности

Глубокие подделки - враг номер один для индустрии в данный момент. 

Недавние инциденты, такие как глубокая фальшивая реклама выдавая себя за премьер-министра Великобритании Риши Сунака на Facebook, охвативший, по оценкам, 400 000 человек, и потенциальное вмешательство в словацкие и Выборы в Бангладеш проиллюстрировали потенциал ИИ для вмешательства в политику. 

Искусственный интеллект уже развернута в преддверии выборов в СШАКандидаты используют технологию для создания рекламных изображений.

OpenAI продвигает усилия по повышению прозрачности. Они планируют внедрить цифровые учетные данные Коалиции по проверке достоверности и аутентичности контента для изображений, созданных в DALL-E 3, которые используют криптографию для кодирования информации о проверке достоверности контента. 

Кроме того, разрабатывается новый классификатор происхождения для обнаружения изображений, созданных DALL-E. "Наше внутреннее тестирование показало многообещающие первые результаты", - заявляет OpenAI, планируя предоставить этот инструмент журналистам, платформам и исследователям для обратной связи. 

OpenAI также интегрирует ChatGPT с новостными репортажами в реальном времени по всему миру, стремясь предоставить пользователям прозрачные источники для их запросов. 

В США OpenAI сотрудничает с Национальной ассоциацией государственных секретарей (NASS), чтобы направить пользователей ChatGPT на сайт CanIVote.org для получения авторитетной информации о голосовании в США. 

Они намерены использовать результаты этого партнерства для разработки стратегий в других странах.

Остаются острые вопросы: достаточно ли этого? Могут ли компании, занимающиеся разработкой искусственного интеллекта, решить эти проблемы на практике, или проблема уже вышла за рамки эффективного контроля? 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения