Le débat sur la sécurité de l'IA reste un sujet brûlant, mais l'industrie ne dispose pas d'une définition définitive de ce qu'est une IA "sûre", ni d'un point de référence pour comparer le degré de sécurité des différents modèles.
MLCommons a réuni un grand nombre d'entreprises au sein de ses différents groupes de travail pour devenir la principale organisation d'évaluation comparative de l'IA.
Lorsque nous comparons les performances d'inférence GPU d'un fabricant à celles d'un autre ou que nous remplissons un tableau de classement LLM, nous pouvons le faire parce que nous disposons de repères. Les repères comme MLPerf et les tests standardisés nous permettent de dire "Celui-ci est meilleur que celui-là".
Mais en ce qui concerne la sécurité de l'IA, nous ne disposons pas vraiment d'une norme de référence qui nous permette de dire : "Ce LLM est plus sûr que celui-là".
Avec la formation du groupe de travail sur la sécurité de l'IA (AIS), MLCommons souhaite développer un ensemble de critères de sécurité de l'IA pour rendre cela possible.
Quelques entreprises et organisations ont déjà travaillé dans ce domaine. Les garde-fous de Google pour l'IA générative et le projet RealToxicityPrompts de l'université de Washington en sont de bons exemples.
Mais ces tests d'étalonnage reposent sur la saisie d'une liste spécifique d'invites et ne vous indiquent réellement le degré de sécurité du modèle que sur la base de cet ensemble d'invites.
Ces tests utilisent aussi généralement des ensembles de données ouvertes pour les questions et les réponses. Les LLM testés peuvent également avoir été formés sur ces ensembles de données, de sorte que les résultats des tests peuvent être faussés.
Le centre de recherche sur les modèles de fondation de l'université de Stanford a réalisé un travail de pionnier en élaborant son programme de recherche sur les modèles de fondation. Évaluation holistique des modèles linguistiques (HELM). HELM utilise un large éventail de mesures et de scénarios pour tester la sécurité du LLM d'une manière plus holistique.
L'AIS s'appuiera sur le cadre HELM pour développer ses critères de sécurité pour les grands modèles linguistiques. Elle invite également l'industrie à participer plus largement.
L'annonce de MLCommons précise : "Nous nous attendons à ce que plusieurs entreprises externalisent les tests de sécurité de l'IA qu'elles ont utilisés en interne à des fins exclusives et les partagent ouvertement avec la communauté MLCommons, ce qui contribuera à accélérer le rythme de l'innovation".
Les grands noms qui composent le groupe de travail AIS sont Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies, ainsi que des universitaires spécialisés dans l'IA.
Une fois que l'industrie de l'IA se sera mise d'accord sur un critère de sécurité, des efforts tels que ceux de la Commission européenne seront déployés. Sommet sur la sécurité de l'IA plus productifs.
En outre, les régulateurs gouvernementaux pourraient exiger que les entreprises d'IA obtiennent un score spécifique sur un critère de référence avant d'autoriser la diffusion de leurs modèles.
Les tableaux de bord sont également d'excellents outils de marketing, et le fait de disposer d'un tableau de bord de la sécurité accepté par l'industrie est plus susceptible d'orienter le budget d'ingénierie vers la sécurité de l'IA.