OpenAI a annoncé le lancement de son Programme d'aide à la cybersécurité d'un montant de $1 millions d'eurosCette initiative vise à intégrer l'IA dans la cybersécurité et à promouvoir le débat sur le rôle de l'IA dans la cybersécurité.
L'initiative est conçue pour atteindre trois objectifs principaux :
- Donner aux défenseurs les moyens d'agir : L'OpenAI vise à doter les défenseurs (organisations et services axés sur la protection des systèmes) de capacités d'IA avancées.
- Mesurer l'impact: Ils entendent mesurer l'efficacité de l'IA en matière de cybersécurité.
- Promouvoir le discours: L'OpenAI a l'intention d'utiliser ce programme pour encourager le débat sur l'interaction entre l'IA et la cybersécurité, y compris les opportunités et les défis.
L'OpenAI a proposé plusieurs idées de projets, notamment la collecte et l'étiquetage de données pour former des agents de cybersécurité, la détection et l'atténuation des tactiques d'ingénierie sociale, la correction automatisée des vulnérabilités, l'identification des problèmes de sécurité dans le code source et l'aide à la criminalistique des réseaux ou des appareils.
La subvention de $1 million sera octroyée par tranches de $10 000 par le biais de crédits API ou d'un financement direct. L'entreprise a déclaré qu'elle donnerait la priorité aux applications qui font l'objet d'une licence et d'une distribution pour "un maximum d'avantages et de partage pour le public".
Subventions et initiatives de l'OpenAI
Ce n'est pas la première fois que l'OpenAI offre des subventions substantielles en échange de la participation du public.
Le 25 mai, l'entreprise a annoncé dix $100 000 subventions pour concevoir des processus démocratiques qui déterminent comment les systèmes d'IA devraient fonctionner. Un tel système démocratiserait le contrôle de l'IA, en permettant à des personnes d'horizons divers de voter sur la manière dont elle devrait fonctionner pour eux - et pour la société dans son ensemble.
Voici quelques exemples de questions auxquelles OpenAI cherche à répondre :
- "Jusqu'où pensez-vous que la personnalisation des assistants d'IA comme ChatGPT pour s'aligner sur les goûts et les préférences d'un utilisateur devrait aller ?
- Quelles sont les limites éventuelles de ce processus ?
- Comment les assistants d'intelligence artificielle devraient-ils répondre aux questions sur les points de vue des personnalités publiques ? Doivent-ils être neutres ? Doivent-ils refuser de répondre ? Doivent-ils fournir des sources d'information ?
- Dans quelles conditions, le cas échéant, les assistants d'IA devraient-ils être autorisés à fournir des conseils médicaux/financiers/juridiques ?"
OpenAI est consciente de son rôle dans l'élaboration de la technologie de l'IA, et son PDG, Sam Altman, a ouvertement mis en garde le public contre les risques que présente l'IA.
La volonté de l'entreprise d'inviter le public à collaborer est admirable. Toutefois, pour parvenir à un accord sur des questions telles que la démocratisation de l'IA, il faudra une coopération étroite entre OpenAI, Google, Anthropic et d'autres acteurs de l'industrie, ce qui constitue un tout autre test.