Dans une annonce faite ce mercredi, le chef de la majorité au Sénat, Chuck Schumer, a présenté sa proposition législative très attendue sur la gestion de l'IA. Il a averti que "le Congrès doit se joindre à la révolution de l'IA" pour maîtriser et gouverner la technologie.
Schumer, démocrate de New York, a indiqué son plan à lancer une série de "forums de réflexion sur l'IA" dans le courant de l'année. Ces forums réuniront des responsables de l'IA, des chercheurs, des responsables communautaires, des spécialistes de la sécurité nationale et d'autres experts.
Les résultats de ces réunions serviront de base à l'élaboration de recommandations politiques pour le Congrès.
S'exprimant au Centre d'études stratégiques et internationales, une organisation bipartisane à but non lucratif spécialisée dans la politique étrangère et la sécurité nationale, M. Schumer a déclaré : "Certains experts prédisent que dans quelques années seulement, le monde pourrait être totalement méconnaissable par rapport à celui dans lequel nous vivons aujourd'hui. C'est ce que représente l'IA : changer le monde".
Reconnaissant les récents changements apportés par l'IA, M. Schumer a averti : "Nous n'avons pas d'autre choix que de reconnaître que les changements apportés par l'IA sont à venir et, dans de nombreux cas, sont déjà là. Nous les ignorons à nos risques et périls. Nombreux sont ceux qui veulent ignorer l'IA en raison de sa complexité. Mais lorsqu'il s'agit de l'IA, nous ne pouvons pas être des autruches qui se mettent la tête dans le sable".
Équilibrer les risques et les avantages
M. Schumer a également souligné le potentiel positif de l'IA, de la lutte contre les maladies et la famine à l'amélioration de la productivité. D'autre part, il a fait part de ses inquiétudes quant aux dangers potentiels de ce système, notamment les bouleversements dans le monde du travail, la désinformation et la fraude.
Il a mis en garde contre d'éventuelles menaces pour l'intégrité des élections, notamment de fausses déclarations déformées et d'autres formes de calomnies destinées à nuire à leurs campagnes ou des chatbots diffusant des informations erronées pour influencer les électeurs. "L'IA pourrait être utilisée pour jeter la jaunisse et même discréditer totalement nos élections dès l'année prochaine", a déclaré M. Schumer. "Si nous ne prenons pas de mesures pour nous assurer que l'IA préserve les fondements de notre pays, alors nous risquons la survie même de notre démocratie."
M. Schumer a déclaré que six mois de discussions avec plus de 100 acteurs de l'IA ont abouti à un projet législatif appelé "SAFE Innovation for AI" (innovation sûre pour l'IA). Il se compose de cinq éléments clés :
- Sécurité: Renforcer la sécurité nationale en s'attaquant aux menaces liées à l'IA tout en garantissant la sécurité économique des travailleurs, en particulier ceux à faible revenu.
- Responsabilité: Favoriser le développement de systèmes "responsables" pour lutter contre la désinformation et les préjugés et protéger les créateurs en abordant les questions de droits d'auteur et en préservant les droits de propriété intellectuelle.
- Fondements: Veiller à ce que les systèmes d'IA soient conformes aux valeurs démocratiques, protéger les élections, accentuer les avantages sociétaux de l'IA tout en minimisant les inconvénients potentiels, et empêcher le Parti communiste chinois de fixer les normes mondiales en matière d'IA.
- Explicabilité: Les entreprises devraient documenter la manière dont les systèmes d'IA parviennent à un résultat spécifique en termes simples et compréhensibles. Cela permettra aux utilisateurs de mieux comprendre le raisonnement qui sous-tend la réponse particulière du système et son origine.
- L'innovation: Soutenir les avancées américaines dans les technologies de l'IA et promouvoir les États-Unis en tant que leader mondial dans le domaine de l'IA.
"L'innovation doit être notre étoile polaire", a poursuivi M. Schumer. "Mais si les gens pensent que l'innovation en matière d'IA ne se fait pas en toute sécurité, s'il n'y a pas de garde-fous adéquats en place - et si le public a le sentiment que l'innovation ne sera pas sûre - cela étouffera, voire stoppera complètement l'innovation".
Cet appel à l'action s'aligne sur les avertissements urgents des experts en IA, y compris une déclaration du Centre pour la sécurité de l'IA (CAIS), signé par plus de 350 PDG de sociétés technologiques, universitaires, personnalités publiques et autres experts de renom.
Lors d'une visite dans la région de la baie mardi, le président Joe Biden a rencontré 8 experts en IAParmi eux, Jim Steyer, PDG de Common Sense Media, Sal Khan, fondateur et PDG de la Khan Academy, et Tristan Harris, directeur exécutif et cofondateur du Center for Humane Technology et ancien éthicien de la conception chez Google.
M. Biden a reconnu le rythme rapide des changements technologiques induits par l'IA, déclarant : "Nous verrons plus de changements technologiques au cours des dix prochaines années que nous n'en avons vus au cours des cinquante dernières années, et peut-être même au-delà".
La coopération bipartisane est encouragée dans le domaine de l'IA
M. Schumer collabore étroitement avec la Maison Blanche sur la stratégie en matière d'IA, en organisant des réunions d'information bipartites pour former les sénateurs à l'IA.
Soulignant la nécessité d'une approche innovante pour naviguer dans la politique de l'IA, M. Schumer a insisté sur le fait que les processus législatifs habituels pourraient ne pas suffire dans ce paysage technologique en évolution rapide. Les "AI Insight Forums" qu'il propose analyseront, entre autres, les droits d'auteur et la propriété intellectuelle, la sécurité nationale, l'emploi et la préparation aux pires scénarios.
M. Schumer a déclaré : "L'IA évolue si rapidement - mais elle est aussi si complexe - qu'une nouvelle approche est nécessaire. Les auditions ne suffiront pas. Nous avons besoin d'une approche globale, car c'est ce qu'exigent la complexité et la rapidité de l'IA".
Le discours de M. Schumer montre que l'ère de l'IA est en train de naître et qu'il est temps de mettre en place une coopération bipartisane pour naviguer sur les territoires inexplorés de la technologie.
"Comme beaucoup de grandes entreprises dans l'histoire de notre nation, nous devons aller de l'avant en faisant preuve de bipartisme et de coopération", a-t-il conclu. "Nous devons mettre de côté nos blocages idéologiques et nos intérêts politiques. Ce n'est qu'ainsi que nos efforts seront couronnés de succès".
Réglementation de l'IA aux États-Unis : calendrier
Par rapport à l'UE et à la Chine, le paysage réglementaire américain en matière d'IA est resté quelque peu indéfini.
Réglementations sectorielles
Bien qu'il n'y ait pas de réglementation générale de l'IA aux États-Unis, il y a eu quelques activités sectorielles qui donnent des indices sur la gouvernance future.
Notamment, le National Institute of Standards and Technology (NIST), la Federal Trade Commission (FTC) et la Food and Drug Administration (FDA) ont tous publié des orientations sur l'IA.
Le NIST sur l'IA
Le 26 janvier 2023, le NIST a publié la Cadre de gestion des risques liés à l'intelligence artificielle 1.0 (RMF).
Ce cadre est un guide volontaire destiné aux entreprises technologiques qui conçoivent, développent, déploient ou utilisent des systèmes d'IA. Il vise à gérer les risques associés à l'IA, en mettant l'accent sur le développement fiable et responsable des systèmes d'IA.
Le RMF identifie 7 caractéristiques des systèmes d'IA dignes de confiance :
- Sûr: Surveille, contrôle ou intervient d'une autre manière sur le système d'IA afin d'éviter tout dommage ou toute mise en danger de la vie, de la santé ou des biens des personnes.
- Sécurité et résilience: Protège contre les attaques et gère les incidents majeurs potentiels.
- Explicable et interprétable: Les résultats sont explicables et ne constituent pas une "boîte noire".
- Renforcement de la protection de la vie privée: Protège l'autonomie humaine en préservant l'anonymat, la confidentialité et le contrôle.
- Équitable, avec un parti pris de gestion: Promouvoir l'équité et l'égalité et atténuer les différents préjugés.
- Responsabilité et transparence: Fournit des informations sur le cycle de vie du système d'IA et maintient des pratiques de gouvernance pour réduire les dommages potentiels.
- Valable et fiable: Veille à ce que le système d'IA fonctionne comme prévu par le biais de tests et de contrôles continus.
La FTC sur l'IA
La FTC a signalé une surveillance accrue des entreprises utilisant l'IA. Elle a émis plusieurs avertissements aux entreprises pour qu'elles évitent les pratiques déloyales ou trompeuses.
Des fonctionnaires ont indiqué que les lois existantes s'appliquent toujours à diverses activités liées à l'IA. Par exemple, Lina Khan, présidente de la FTC, Les autorités chargées de l'application de la loi doivent être conscientes de ce qui suit de la manière dont les lois existantes s'appliquent à la discrimination et aux préjugés liés à l'IA.
La FDA et l'IA
La FDA a annoncé son intention de réglementer les outils et dispositifs cliniques alimentés par l'IA pour la prise de décision en matière de soins de santé.
Il s'agit de l'un des premiers documents réglementaires pratiques axés sur l'IA, première publication en 2019. Les projets de la FDA étaient les suivants élargi en 2023.
Perspectives d'avenir
Le 14 juin 2023, Une législation bipartisane a été proposée pour rendre les entreprises de médias sociaux responsables des contenus préjudiciables générés par l'IA.
Le projet de loi, présenté par les sénateurs Josh Hawley (républicain) et Richard Blumenthal (démocrate), pourrait ouvrir la voie à des actions en justice contre des entreprises pour des dommages causés par des technologies basées sur l'IA, telles que les "deep fakes" (contrefaçons profondes).
Les fraudeurs utilisent déjà des "deep fakes" pour fraude et désinformationCe qui, selon un expert en sécurité, pourrait coûter 1,5 milliard d'euros à l'Union européenne. Des milliards de dollars par an pour les contribuables américains.
Cette proposition de modification de l'article 230, une loi qui accorde actuellement aux plateformes en ligne l'immunité de responsabilité pour les contenus générés par les utilisateurs, fait suite à deux arrêts de la Cour suprême du mois dernier qui ont confirmé la portée des protections de l'article 230.
L'article 230 est essentiel pour les cas potentiels de diffamation impliquant des développeurs d'IA tels que ChatGPT, car il rend actuellement les cas juridiques contre les résultats de l'IA comme intraitable. Actuellement, la section 230 du Communications Decency Act de 1996 garantit que les "services informatiques interactifs" ne sont pas tenus pour responsables en tant qu'"éditeur ou orateur" des informations fournies par les utilisateurs.
M. Blumenthal a qualifié le projet de loi de "premier pas" vers la mise en place de garanties autour de l'IA.
Le soutien bipartisan dont bénéficie le projet de loi illustre l'intérêt croissant pour la réglementation de l'IA, ce que les annonces de M. Schumer ont confirmé.
Les républicains et les démocrates s'accordent largement sur la nécessité de gouverner l'IA, mais les avis divergent quant aux mesures pratiques à prendre.
Les roues sont en mouvement pour une réglementation complète de l'IA aux États-Unis, qui pourrait commencer à apparaître à une date similaire à celle de la loi européenne sur l'IA, qui devrait entrer en vigueur en 2024.