Le 29 janvier 2024, le Chief Digital and Artificial Intelligence Office (CDAO) du ministère de la Défense a lancé les exercices AI Bias Bounty.
Ces programmes ont pour but de faciliter la détection des biais dans les systèmes d'intelligence artificielle, en mettant l'accent sur les grands modèles de langage (LLM).
Cette initiative s'inscrit dans le cadre des efforts plus vastes déployés par le CDAO pour intégrer et optimiser la sécurité de l'IA dans l'ensemble du ministère de la défense.
Les répercussions des biais non contrôlés de l'IA sont considérables et se manifestent dans divers secteurs, de l'application de la loi aux services financiers, en passant par les soins de santé.
Instances de L'IA identifie mal les individus impliquées dans des crimes, le refus de crédits injustes et les diagnostics erronés dans le domaine médical soulignent la nature critique des préjugés dans les systèmes d'apprentissage automatique.
Dans de nombreux cas, les ensembles de données biaisés intègrent des biais dans les systèmes d'apprentissage automatique. Par exemple, l'ensemble de données Tiny Images du MIT, apparemment inoffensif, contenait un contenu offensant. Plus récemment, le jeu de données Jeu de données LAION-5Butilisé pour des modèles d'images comme DALL-E, s'est avéré contenir des informations sur des abus sexuels commis sur des enfants.
Matthew Johnson, chef intérimaire de la division RAI (Responsible AI) du ministère de la défense, a évoqué l'initiative de la CDAOL'équipe de la RAI est ravie de diriger ces concours de lutte contre les biais de l'IA, car nous sommes fermement résolus à faire en sorte que les systèmes d'IA du ministère - et les contextes dans lesquels ils fonctionnent - soient sûrs, sécurisés, fiables et exempts de biais".
La première phase de ce programme novateur se concentre sur la découverte et le traitement des risques inconnus associés aux LLM, en commençant par les chatbots à code source ouvert.
Les participants peuvent obtenir des récompenses monétaires en fonction de leurs contributions, évaluées par ConductorAI-Bugcrowd et financées par le DoD.
Les résultats pourraient orienter de nouvelles politiques et recommandations. Craig Martell, Chief Digital and Artificial Intelligence Officer, a déclaré : "Étant donné que le ministère se concentre actuellement sur les risques associés aux LLM, le CDAO surveille activement ce domaine ; les résultats de l'enquête sur les biais de l'IA pourraient avoir un impact considérable sur les futures politiques et l'adoption de l'IA par le ministère de la défense".
Le gouvernement américain a recruté des chercheurs en IA et des pirates informatiques pour enquêter sur les modèles et les mettre sur la sellette, y compris lorsqu'ils sont utilisés dans le cadre d'un projet de recherche. a soutenu une session à la Def Con à Las Vegas.