L'administration Biden devrait dévoiler un décret global sur l'IA le lundi 30 octobre.
Selon un source proche de VentureBeatSelon la source, l'ordonnance devrait compter plus de 100 pages, ce qui en fait un vaste texte de réglementation en matière d'IA. La source a déclaré qu'il s'agissait de l'ordonnance la plus longue qu'elle ait jamais vue.
Le décret abordera des domaines critiques tels que la sécurité de l'IA et le renforcement de l'industrie américaine de l'IA, en veillant à ce que les modèles d'IA avancés fassent l'objet d'évaluations approfondies avant d'être déployés par les fonctionnaires fédéraux.
En plus de se prémunir contre les risques de l'IA, le gouvernement américain a précédemment exprimée Le décret devrait également réduire les barrières à l'entrée aux États-Unis pour les travailleurs hautement qualifiés, ce qui favorisera un écosystème technologique national solide. Le décret devrait également abaisser les barrières à l'entrée aux États-Unis pour les travailleurs hautement qualifiés, favorisant ainsi un solide écosystème technologique national.
La publication de l'ordonnance intervient à un moment stratégique, deux jours avant l'ouverture de la session plénière de l'Union européenne. Sommet sur la sécurité de l'IA en Grande-Bretagneoù des dirigeants gouvernementaux, des cadres supérieurs de la Silicon Valley et des groupes de la société civile se réuniront pour discuter des risques potentiels de l'IA pour la société.
Ce décret témoigne de la position proactive du gouvernement américain en matière de réglementation de l'IA, qui s'aligne sur les efforts déployés à l'échelle mondiale pour relever les défis et les incertitudes liés à cette technologie. Le Royaume-Uni a récemment L'intensification des discussions sur les risques existentiels de l'IA, dans le but d'inciter à l'action avant leur sommet.
Les agences du gouvernement fédéral, notamment le ministère de la défense, le ministère de l'énergie et les agences de renseignement, seront chargées de mener des évaluations sur l'intégration de l'IA dans leurs opérations, en mettant l'accent sur le renforcement des cyberdéfenses nationales.
En outre, le décret devrait s'appuyer sur les éléments suivants engagements volontaires de grandes entreprises technologiques, dont OpenAI, Adobe, Anthropic, Inflection, Meta, Google et Nvidia, afin de développer une technologie permettant d'identifier les images générées par l'IA et de partager les données relatives à la sécurité avec le gouvernement et le monde universitaire.
Le National Institute of Standards and Technology (NIST) devrait diriger les évaluations "red teaming" des grands modèles de langage (LLM) achetés par le gouvernement dans le cadre du processus d'évaluation de l'ordonnance. Le "red teaming" est le processus qui consiste à essayer de tester les systèmes numériques, y compris les modèles d'apprentissage automatique, en les soumettant à des tests de résistance, en les piratant et en les mettant hors d'état de nuire.
Les États-Unis sont désormais prêts à dévoiler le premier texte législatif d'envergure sur l'IA dans la majeure partie du monde occidental, tandis que la loi sur l'IA de l'Union européenne est toujours en cours d'examen. un long processus d'ascension juridique.