Компания OpenAI объявила о запуске своего Грантовая программа по кибербезопасности с бюджетом $1 млн.Инициатива, направленная на внедрение ИИ в кибербезопасность и развитие дискуссии о роли ИИ в кибербезопасности.
Инициатива направлена на достижение трех ключевых целей:
- Расширьте возможности защитников: OpenAI намерен оснастить защитников (организации и службы, занимающиеся защитой систем) передовыми возможностями ИИ.
- Измерить воздействие: Они намерены измерить эффективность ИИ в области кибербезопасности.
- Поощрять дискурс: OpenAI намерена использовать эту схему для стимулирования дискуссий о взаимодействии ИИ и кибербезопасности, включая возможности и проблемы.
OpenAI предложила несколько идей проекта, включая сбор и маркировку данных для обучения агентов кибербезопасности, обнаружение и смягчение последствий тактики социальной инженерии, автоматическое исправление уязвимостей, выявление проблем безопасности в исходном коде и помощь в проведении экспертизы сети или устройства.
Грант в размере $1 миллиона будет выдаваться с шагом в $10 000 в виде кредитов API или прямого финансирования. Компания заявила, что приоритет будет отдан приложениям, которые лицензируются и распространяются для "максимальной общественной пользы и совместного использования".
Гранты и инициативы OpenAI
Это не первый раз, когда OpenAI предлагает значительные гранты в обмен на участие общественности.
25 мая компания объявила о десяти $100 000 грантов для разработки демократических процессов, определяющих, как должны работать системы ИИ. Такая система демократизирует контроль над ИИ, позволяя людям из разных слоев общества голосовать за то, как он должен работать для них - и для общества в целом.
Среди примеров вопросов, на которые OpenAI ищет ответы, можно назвать следующие:
- "Как вы считаете, насколько далеко должна зайти персонализация ИИ-помощников, таких как ChatGPT, чтобы они соответствовали вкусам и предпочтениям пользователя?
- Какие границы, если они есть, должны существовать в этом процессе?
- Как помощники ИИ должны отвечать на вопросы о точке зрения общественных деятелей? Например, должны ли они быть нейтральными? Должны ли они отказываться отвечать? Должны ли они предоставлять какие-то источники?
- При каких условиях, если таковые имеются, ассистентам искусственного интеллекта следует разрешить давать медицинские, финансовые и юридические консультации?"
Компания OpenAI осознает свою роль в формировании технологии искусственного интеллекта, а ее генеральный директор Сэм Альтман открыто предупреждает общественность о рисках, которые несет в себе искусственный интеллект.
Готовность компании пригласить общественность к сотрудничеству достойна восхищения. Однако для достижения согласия по таким вопросам, как демократизация ИИ, потребуется тесное сотрудничество между OpenAI, Google, Anthropic и другими участниками индустрии, а это уже совсем другое испытание.