Disséquer le décret historique de la Maison Blanche sur l'IA

30 octobre 2023

Ordre AI de Biden

Le 30 octobre 2023 marque une avancée dans la gouvernance de l'IA, le président Joe Biden ayant annoncé un décret exhaustif établissant des règles et des lignes directrices solides pour l'IA. 

L'ordonnance devrait ouvrir une nouvelle ère de transparence et de normalisation pour les entreprises du secteur de l'IA, en soulignant la nécessité d'un étiquetage clair des contenus et de pratiques de filigrane.  

"Pour réaliser les promesses de l'IA et éviter les risques, nous devons gouverner cette technologie, c'est incontournable", a déclaré M. Biden lors de la cérémonie de signature à la Maison Blanche. 

Lors de l'événement, M. Biden a également parlé de l'IA et des faux, annonçant avec humour à l'auditoire : "J'en ai vu un de moi... J'ai dit...", j'ai dit ça ?"

Les commande met l'accent sur une plus grande transparence de la part des développeurs d'IA et établit une série de nouvelles normes, notamment pour l'étiquetage des contenus générés par l'IA. 

La Maison Blanche vise à renforcer la "sûreté et la sécurité de l'IA" par le biais de ce décret. Il prévoit notamment une obligation surprenante pour les développeurs de partager les résultats des tests de sécurité pour les nouveaux modèles d'IA avec le gouvernement américain si la technologie peut potentiellement menacer la sécurité nationale.

Il s'agit de la loi sur la production de défense (Defense Production Act), généralement réservée aux urgences nationales.

Pour ceux qui ne sont pas familiers avec le processus législatif américain, les décrets ne sont pas des textes de loi - ils ne créent pas de nouvelles lois et ne modifient pas les lois existantes. En revanche, ils donnent des instructions au Congrès sur les priorités politiques.

L'ordre, publié iciLa directive sur l'IA contient de nombreuses échéances qui précisent les différentes actions à entreprendre pour mettre en place une législation sur l'IA. 

Les décrets doivent être fondés sur une autorité constitutionnelle ou statutaire et ne peuvent être utilisés pour contourner le Congrès ou créer des lois unilatéralement.

En conséquence, de nombreuses personnes ont souligné que le décret manquait de mécanismes d'application. Il n'a pas le poids d'une législation du Congrès sur l'IA.

"Le Congrès est profondément polarisé et même dysfonctionnel, à tel point qu'il est très peu probable qu'il produise une législation significative sur l'IA dans un avenir proche", observe Anu Bradford, professeur de droit à l'université de Columbia.

Cette décision intervient quelques jours avant que le Royaume-Uni n'entame le processus d'adhésion à l'Union européenne. Sommet sur la sécurité de l'IAqui réunira à Bletchley Park des hommes politiques, des chercheurs, des cadres du secteur technologique et des membres de la société civile. La vice-présidente Kamala Harris y participera. La Chine sera également représentée au sommet. 

"Nous voulons que les mesures que nous prenons au niveau national servent de modèle à l'action internationale", a déclaré Mme Harris lors de l'événement organisé à la Maison Blanche. 

Cette déclaration attire l'attention sur les critiques selon lesquelles l'ordonnance pourrait potentiellement compromettre la collaboration internationale ouverte avant le sommet sur la sécurité de l'IA.

Les États-Unis ont été lents à se lancer dans la réglementation de l'IA, et la nature des ordres exécutifs fait qu'ils le restent. Il est peut-être audacieux de suggérer que d'autres pays devraient suivre leur trajectoire.

M. Harris a ajouté que les États-Unis "appliqueraient les règles et les normes internationales existantes dans le but de promouvoir l'ordre et la stabilité au niveau mondial et, si nécessaire, de susciter un soutien en faveur de règles et de normes supplémentaires qui répondent à cet objectif".

Ce que dit la Maison Blanche

Le décret introduit des normes strictes pour l'IA, protégeant la vie privée des Américains, encourageant l'équité et les droits civils, protégeant les consommateurs et les travailleurs, stimulant l'innovation et la concurrence, et renforçant le leadership américain en matière d'IA. 

Il complète engagements volontaires de 15 entreprises de premier plan afin de promouvoir le développement sûr et fiable de l'IA.

L'un des éléments les plus remarquables du décret est que le président a déclaré que les développeurs de systèmes d'IA "puissants" devront partager les résultats des tests de sécurité et les informations critiques avec le gouvernement américain, afin de s'assurer que ces systèmes sont sûrs et dignes de confiance avant leur diffusion publique.

Le National Institute of Standards and Technology (NIST) dirigera les efforts de "red teaming" pour tester et analyser la sécurité des modèles d'IA.

L'équipe rouge est le processus qui consiste à sonder et à tester les fonctionnalités et la sécurité des modèles d'IA. 

En ce qui concerne la protection de la vie privée, l'appel lancé par le président en faveur d'une législation bipartisane sur la protection des données reflète une compréhension de l'urgence de la situation.

Toutefois, comme nous l'avons indiqué, l'efficacité de ces mesures dépendra en fin de compte de l'action rapide et décisive du Congrès, qui a toujours été lent à légiférer sur les questions liées à la technologie.

En outre, le décret prend fermement position en faveur de l'équité et de la lutte contre la discrimination algorithmique, avec des directives visant à garantir l'équité dans les domaines du logement, de la justice pénale et des programmes de prestations fédérales. 

Encore une fois, bien qu'il s'agisse de mesures positives, le succès de ces initiatives dépendra d'une application rigoureuse et d'une surveillance continue. 

L'ordonnance porte sur huit domaines clés. 

1. De nouvelles normes pour la sûreté et la sécurité de l'IA

  • Les développeurs de systèmes d'IA puissants doivent partager les résultats des tests de sécurité et des informations cruciales avec le gouvernement américain.
  • L'élaboration de normes, d'outils et de tests pour garantir la sécurité et la fiabilité des systèmes d'IA, sous la direction du NIST.
  • Protection contre le potentiel de l'IA dans l'ingénierie des matières biologiques dangereuses en établissant des normes solides pour le dépistage des synthèses biologiques.
  • Établir des protocoles pour protéger les Américains contre la fraude et la tromperie par l'IA, y compris des normes pour détecter le contenu généré par l'IA et authentifier les communications officielles.
  • Lancer un programme de cybersécurité avancée pour tirer parti de l'IA dans la sécurisation des logiciels et des réseaux.

2. Protéger la vie privée des Américains

  • Plaider en faveur d'un soutien fédéral au développement et à l'utilisation de techniques de préservation de la vie privée dans le domaine de l'IA.
  • Renforcer la recherche sur les technologies de préservation de la vie privée.
  • Renforcer les lignes directrices des agences fédérales afin de garantir le respect de la vie privée lors de la collecte et de l'utilisation des données, en particulier des informations personnellement identifiables.

3. Promouvoir l'équité et les droits civils

  • Fournir des orientations pour atténuer le potentiel de l'IA à exacerber la discrimination dans les domaines du logement, de la justice et de l'emploi.
  • Promouvoir l'équité dans l'ensemble du système de justice pénale en développant les meilleures pratiques en matière d'application de l'IA.

4. Défendre les consommateurs, les patients et les étudiants

  • Encourager l'utilisation responsable de l'IA dans les soins de santé afin de mettre au point des médicaments abordables et susceptibles de sauver des vies et de garantir la sécurité des pratiques de soins de santé faisant appel à l'IA.
  • Faciliter le rôle transformateur de l'IA dans l'éducation, en aidant les éducateurs à déployer des outils d'apprentissage améliorés par l'IA.

5. Soutenir les travailleurs

  • Élaborer des principes et des bonnes pratiques pour équilibrer les avantages et les inconvénients de l'IA sur le lieu de travail.
  • Réaliser des études approfondies sur l'impact de l'IA sur le marché du travail et renforcer le soutien fédéral aux travailleurs confrontés à des perturbations de l'emploi dues à l'IA.

6. Promouvoir l'innovation et la concurrence

  • Catalyser la recherche sur l'IA à l'échelle nationale et garantir un écosystème d'IA compétitif.
  • Rationaliser les procédures d'immigration pour les personnes hautement qualifiées dans les secteurs critiques de l'IA.

7. Promouvoir le leadership américain à l'étranger

  • Renforcer les collaborations et les cadres internationaux dans le domaine de l'IA.
  • Promouvoir un développement et un déploiement sûrs et responsables de l'IA dans le monde entier.

8. Garantir une utilisation responsable et efficace de l'IA par les pouvoirs publics

  • Fournir aux agences fédérales des orientations claires sur l'utilisation, l'acquisition et le déploiement de l'IA.
  • Améliorer l'acquisition de talents en matière d'IA dans l'ensemble du gouvernement et fournir une formation à l'IA aux employés fédéraux.

L'administration Biden-Harris s'efforce de trouver un équilibre entre le maintien et le renforcement de l'industrie américaine de l'IA, qui est à la pointe du progrès, et la limitation des risques évidents. 

Faux et fausses informations en profondeur sont au centre des préoccupations de la plupart des gens, étant donné que nous disposons désormais de preuves tangibles qu'ils pourraient influencer les votes électoraux. 

Avec les élections générales américaines de l'année prochaine, il n'est peut-être pas surprenant que l'ordonnance augmente la pression pour filigraner et mettre en évidence le contenu généré par l'IA afin que les utilisateurs puissent facilement distinguer le vrai du faux. 

Toutefois, d'un point de vue technique, il existe pas de solutions solides pour y parvenir en pratique. 

Réactions de l'industrie

Les réactions de l'industrie sont naturellement mitigées. Nombreux sont ceux qui se félicitent des progrès rapides réalisés en vue de la signature de l'ordonnance, tandis que d'autres soulignent l'absence de législation et d'informations sur les mesures d'application. 

Une fois de plus, le décret indique que la Maison Blanche souhaite que le Congrès agisse en matière de politique d'IA.

La seule exception est la loi sur la production de défense (Defense Production Act), qui a été invoquée pour obliger les entreprises d'IA à informer le gouvernement lorsqu'elles développent des modèles qui interagissent avec la sécurité nationale.

La formulation officielle est la suivante : un modèle d'IA qui présente un "risque grave pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales".

Certains ont souligné que, par rapport à la loi européenne sur l'IA, il n'y a pas d'orientation sur la transparence des données de formation, pour laquelle de nombreux développeurs d'IA font l'objet de poursuites judiciaires.


Adnan Masoodarchitecte en chef de l'IA à l'UST, a applaudi l'initiative en déclarant : "L'ordonnance souligne un changement nécessaire dans l'attention mondiale portée à la réglementation de l'IA, en particulier après le boom de l'IA générative dont nous avons tous été témoins cette année". 

Avivah Litanvice-présidente de Gartner Research, a fait remarquer que si les règles commencent bien, il y a encore des domaines où les mandats ne sont pas à la hauteur. Elle s'est interrogée sur la définition des systèmes d'IA "les plus puissants", sur l'application des modèles d'IA à source ouverte et sur l'application des normes d'authentification du contenu sur les plateformes de médias sociaux. 

Bradley TuskPDG de Tusk Ventures, a déclaré que les développeurs d'IA ne partageraient probablement pas leurs données propriétaires avec le gouvernement. "Sans un véritable mécanisme d'application, que le décret ne semble pas avoir, le concept est excellent mais l'adhésion risque d'être très limitée".

Randy Lariarresponsable de la sécurité de l'IA chez Optiv, a déclaré : "Je crains que de nombreux modèles open-source, qui sont dérivés des grands modèles fondamentaux, puissent être tout aussi risqués sans le fardeau de l'équipe rouge - mais c'est un début."

Ashley LeonardM. Leonard, directeur général de Syxsense, a ajouté qu'il sera très intéressant de voir comment l'ordonnance sera mise en œuvre. "Même les entreprises les plus avancées ont besoin de ressources réelles - budget, temps et personnel - pour se tenir au courant des vulnérabilités et des corrections de bogues", a déclaré M. Leonard.

Max Tegmark, professeur au Massachusetts Institute of Technology et président du Future of Life Institute, a souligné que le décret devait être accompagné d'un plan de création et d'application de la législation, en déclarant : "Les décideurs politiques, y compris ceux du Congrès, doivent veiller sur leurs citoyens en promulguant des lois musclées qui s'attaquent aux menaces et protègent le progrès."

Jaysen Gillespie, responsable de l'analytique et de la science des données chez RTB House, a considéré le décret de manière positive, déclarant que la réglementation de l'IA est un sujet où une approche bipartisane est vraiment possible. 

Alejandro Mayorkas Il charge le DHS de gérer l'IA dans les infrastructures critiques et le cyberespace, de promouvoir l'adoption de normes de sécurité en matière d'IA au niveau mondial, de réduire le risque d'utilisation de l'IA pour créer des armes de destruction massive, de lutter contre le vol de propriété intellectuelle lié à l'IA et de veiller à ce que notre système d'immigration attire des talents pour développer une IA responsable aux États-Unis."

Casey Ellisfondateur et directeur technique de Bugcrowd, a déclaré : "La directive oblige les développeurs à partager les résultats des tests de sécurité avec le gouvernement américain, ce qui garantit que les systèmes d'IA sont minutieusement contrôlés avant d'être rendus publics. Elle souligne également l'importance de l'IA dans le renforcement de la cybersécurité, en particulier dans la détection de la fraude basée sur l'IA et l'amélioration de la sécurité des logiciels et des réseaux. Le décret préconise également l'élaboration de normes, d'outils et de tests pour la sûreté et la sécurité de l'IA".

Une étape nécessaire, mais des défis à relever

Le décret du président Biden sur l'IA tente d'être exhaustif, mais le Congrès doit faire suivre son urgence d'une action législative. Cela est loin d'être garanti. 

Bien qu'elle établisse des normes strictes et mette l'accent sur la transparence, la responsabilité et la prévention des pratiques discriminatoires, l'efficacité réelle de cette initiative dépendra de sa mise en œuvre et de la capacité à équilibrer la surveillance réglementaire et la promotion de l'innovation. 

À l'approche du sommet sur la sécurité de l'IA, les conversations sur les risques de l'IA et les moyens de les atténuer s'intensifient.

Le contrôle global de l'IA dépend toujours de la rapidité et de l'efficacité de la législation et de la capacité à la faire appliquer.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation