OpenAI представляет программу грантов на кибербезопасность в размере $1M

3 июня 2023 года

Кибербезопасность с открытым искусственным интеллектом

Компания OpenAI объявила о запуске своего Грантовая программа по кибербезопасности с бюджетом $1 млн.Инициатива, направленная на внедрение ИИ в кибербезопасность и развитие дискуссии о роли ИИ в кибербезопасности.

Инициатива направлена на достижение трех ключевых целей:

  • Расширьте возможности защитников: OpenAI намерен оснастить защитников (организации и службы, занимающиеся защитой систем) передовыми возможностями ИИ. 
  • Измерить воздействие: Они намерены измерить эффективность ИИ в области кибербезопасности. 
  • Поощрять дискурс: OpenAI намерена использовать эту схему для стимулирования дискуссий о взаимодействии ИИ и кибербезопасности, включая возможности и проблемы. 

OpenAI предложила несколько идей проекта, включая сбор и маркировку данных для обучения агентов кибербезопасности, обнаружение и смягчение последствий тактики социальной инженерии, автоматическое исправление уязвимостей, выявление проблем безопасности в исходном коде и помощь в проведении экспертизы сети или устройства.

Грант в размере $1 миллиона будет выдаваться с шагом в $10 000 в виде кредитов API или прямого финансирования. Компания заявила, что приоритет будет отдан приложениям, которые лицензируются и распространяются для "максимальной общественной пользы и совместного использования".

Гранты и инициативы OpenAI 

Это не первый раз, когда OpenAI предлагает значительные гранты в обмен на участие общественности. 

25 мая компания объявила о десяти $100 000 грантов для разработки демократических процессов, определяющих, как должны работать системы ИИ. Такая система демократизирует контроль над ИИ, позволяя людям из разных слоев общества голосовать за то, как он должен работать для них - и для общества в целом. 

Среди примеров вопросов, на которые OpenAI ищет ответы, можно назвать следующие:

  • "Как вы считаете, насколько далеко должна зайти персонализация ИИ-помощников, таких как ChatGPT, чтобы они соответствовали вкусам и предпочтениям пользователя? 
  • Какие границы, если они есть, должны существовать в этом процессе?
  • Как помощники ИИ должны отвечать на вопросы о точке зрения общественных деятелей? Например, должны ли они быть нейтральными? Должны ли они отказываться отвечать? Должны ли они предоставлять какие-то источники?
  • При каких условиях, если таковые имеются, ассистентам искусственного интеллекта следует разрешить давать медицинские, финансовые и юридические консультации?"

Компания OpenAI осознает свою роль в формировании технологии искусственного интеллекта, а ее генеральный директор Сэм Альтман открыто предупреждает общественность о рисках, которые несет в себе искусственный интеллект. 

Готовность компании пригласить общественность к сотрудничеству достойна восхищения. Однако для достижения согласия по таким вопросам, как демократизация ИИ, потребуется тесное сотрудничество между OpenAI, Google, Anthropic и другими участниками индустрии, а это уже совсем другое испытание.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения