Certains des plus grands noms de la Big Tech se sont réunis pour cofonder la Coalition for Secure AI (CoSAI).
Il n'existe pas encore de norme mondiale pour les pratiques sûres de développement de l'IA, les mesures de sécurité actuelles étant fragmentées et souvent conservées en interne par les entreprises qui créent des modèles d'IA.
Le CoSAI est une initiative libre hébergée par l'organisme mondial de normalisation OASIS qui vise à normaliser et à partager les meilleures pratiques liées au développement et au déploiement sûrs de l'IA.
Google, IBM, Intel, Microsoft, NVIDIA et PayPal font partie du gratin des grandes entreprises technologiques qui soutiennent l'initiative. Parmi les autres sponsors fondateurs figurent Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI et Wiz.
Apple et Meta sont notamment absents.
Le CoSAI vise à développer et à partager des mesures de sécurité globales qui tiennent compte des risques, notamment
- le vol du modèle
- l'empoisonnement des données d'apprentissage
- l'injection d'intrants malveillants par le biais d'une injection rapide
- prévention des abus à l'échelle
- attaques par inférence d'appartenance
- les attaques par inversion de modèle ou par inversion de gradient pour déduire des informations privées
- l'extraction d'informations confidentielles à partir des données d'apprentissage
Charte du CoSAI indique que le "projet n'envisage pas les sujets suivants comme faisant partie du champ d'application : désinformation, hallucinations, contenu haineux ou abusif, préjugés, génération de logiciels malveillants, génération de contenu de phishing ou autres sujets dans le domaine de la sécurité du contenu".
Google dispose déjà de son Google Secure AI Framework (SAIF) et l'OpenAI, de son projet d'alignement en difficulté. Cependant, jusqu'au CoSAI, il n'y avait pas de forum pour combiner les meilleures pratiques en matière de sécurité de l'IA que les acteurs de l'industrie ont développées de manière indépendante.
Nous avons vu de petites entreprises comme Mistral connaissent une ascension fulgurante grâce aux modèles d'IA qu'elles ont produits, mais nombre de ces petites entreprises n'ont pas les ressources nécessaires pour financer des équipes chargées de la sécurité de l'IA.
Le CoSAI sera une source précieuse et gratuite de meilleures pratiques en matière de sécurité de l'IA pour les petits et grands acteurs de l'industrie.
Heather Adkins, vice-présidente et responsable de la résilience en matière de cybersécurité chez Google, a déclaré : "Nous utilisons l'IA depuis de nombreuses années et nous en voyons le potentiel permanent pour les défenseurs, mais nous reconnaissons également les possibilités qu'elle offre aux adversaires.
"Le CoSAI aidera les organisations, grandes et petites, à intégrer l'IA de manière sûre et responsable - en les aidant à tirer parti de ses avantages tout en atténuant les risques."
Nick Hamilton, responsable de la gouvernance, du risque et de la conformité chez OpenAI, a déclaré : "Le développement et le déploiement de technologies d'IA sûres et fiables sont au cœur de la mission d'OpenAI.
"Nous pensons qu'il est essentiel d'élaborer des normes et des pratiques solides pour garantir une utilisation sûre et responsable de l'IA et nous nous engageons à collaborer avec l'ensemble du secteur à cette fin.
"Grâce à notre participation au CoSAI, nous souhaitons apporter notre expertise et nos ressources pour contribuer à la création d'un écosystème d'IA sécurisé qui profite à tous."
Espérons que les gens aiment Ilya Sutskever et d'autres qui ont quitté OpenAI pour des raisons de sécurité apportent bénévolement leur contribution au CoSAI.