Le sommet britannique sur la sécurité de l'IA, associé au décret de M. Biden, a placé la réglementation de l'IA sous les feux de la rampe, mais le tableau d'ensemble reste flou.
Le sommet a rassemblé un groupe diversifié de parties prenantes, démontrant un engagement collectif à façonner l'avenir de l'IA.
L'accueil réservé à l'événement par l'ensemble du spectre politique des médias britanniques a été généralement positif, des publications typiquement opposées à l'approche musclée de Sunak, dont le Guardian, l'ayant qualifié de succès global.
Si l'on a l'impression que les événements politiques liés à l'IA ne sont guère plus que des promesses, les rejeter entièrement pourrait être trop réducteur.
Les Déclaration de Bletchley a été l'un des principaux résultats du sommet, approuvé par 28 pays, dont les États-Unis, le Royaume-Uni, la Chine et l'UE, soulignant le consensus international sur la surveillance de l'IA.
Deux jours avant le sommet, l'équipe de M. Biden s'est rendue à l'aéroport pour y rencontrer des représentants de l'Union européenne. décret a exposé la stratégie américaine de gestion des risques liés à l'IA, en présentant la réponse nationale du pays à ce qui est assurément un défi mondial.
Le calendrier de l'ordonnance illustre une tentative d'affirmer son leadership et de fixer des normes dans le domaine de l'IA, qui progresse rapidement.
Ensemble, ces événements ont certainement établi le "pourquoi" de la réglementation : limiter les risques, mettre en valeur les avantages et protéger les groupes vulnérables.
Le discours sur la nature et l'exécution de la réglementation reste contesté.
Les grandes puissances se disputent désormais le leadership en matière de réglementation, que le Premier ministre britannique, Rishi Sunak, avait l'intention de prendre en main lorsqu'il a annoncé le sommet.
Ces propos ont été quelque peu éclipsés par le décret, dans lequel la vice-présidente Kamala Harris a déclaré sans ambages : "Nous avons l'intention de faire en sorte que les mesures que nous prenons au niveau national servent de modèle à l'action internationale".
Gina Raimondo, secrétaire d'État au commerce des États-Unis, a encore mieux saisi le double esprit de concurrence et de collaboration dans sa déclaration au sommet : "Même si les nations se livrent une concurrence acharnée, nous pouvons et devons rechercher des solutions globales à des problèmes globaux".
S'exprimant sur l'éthique qui sous-tend le récent décret, Ben Buchanan, conseiller de la Maison Blanche en matière d'IA, a déclaré : "Le leadership des États-Unis en matière d'IA ne se limite pas à l'invention de la technologie".
"Il s'agit d'élaborer et de codévelopper les mécanismes de gouvernance, les protocoles de sécurité, les normes et les institutions internationales qui détermineront l'impact de cette technologie.
Il semble que, pour les États-Unis, la réglementation de l'IA soit un sujet géopolitiquement compétitif, surtout si l'on tient compte de l'engagement du pays à l'égard de la protection de l'environnement. l'asservissement des exportations d'IA haut de gamme à la Russie, au Moyen-Orient et à la Chine.
Un peu moins de paroles et un peu plus d'action ?
Il reste à savoir si ces événements accéléreront l'adoption d'une législation et si celle-ci sera efficace. En l'absence de législation, les développeurs d'IA peuvent continuer à promouvoir des cadres volontaires sans y être contraints.
Même avec des lois en place, l'IA évolue rapidement, et ceux qui comprennent vraiment la technologie et ses impacts sont peu nombreux et leurs avis sont partagés.
Les "parrains de l'IA" Geoffrey Hinton, Yoshio Bengio et Yann LeCun ne peuvent même pas se mettre d'accord sur les risques liés à l'IALes problèmes de santé publique, leurs proportions et la manière de les résoudre.
Charlotte Walker-Osborn, partenaire technologique du cabinet d'avocats Morrison Foerster, a déclaré que la déclaration de Bletchley "favorisera probablement un certain niveau de consensus législatif et gouvernemental international autour des principes clés de la réglementation de l'IA".
L'expression "à un certain niveau" est révélatrice. Comme le souligne Walker-Osborn, "une approche véritablement uniforme est improbable" en raison des différences d'approche en matière de réglementation et de gouvernance d'un pays à l'autre. Parvenir à un consensus est une chose, mais le mettre en œuvre dans des cadres juridiques et réglementaires disparates en est une autre.
En outre, l'absence d'exigences contraignantes, comme l'a admis Rishi Sunak, et le recours à des accords d'essais volontaires entre les gouvernements et les grandes entreprises d'IA sont autant d'éléments qui montrent les limites de l'exercice.
Sans réglementation applicable, les déclarations risquent de ne pas avoir le mordant nécessaire pour entraîner des changements concrets, tout comme le décret de M. Biden.
Il se peut que nous soyons entrés dans une période de surenchère symbolique en matière de réglementation, la législation concrète étant encore largement en cours d'élaboration en dehors de la Chine.
D'après Deb Raji, chercheur au sein du Fondation MozillaLe sommet a révélé des perspectives différentes.
"Je pense qu'il y a des points de vue assez divergents dans les différents pays sur ce qu'il faut faire exactement", a déclaré M. Raji, ce qui montre que même parmi ceux qui sont d'accord sur le principe de la réglementation, les détails restent controversés.
D'autres avaient déjà déclaré que le Congrès était si profondément divisé sur certains aspects de l'IA qu'une législation était probablement encore loin d'être adoptée.
Anu Bradford, professeur de droit à l'université de Columbia, a déclaré : "Le Congrès est profondément polarisé et même dysfonctionnel, à tel point qu'il est très peu probable qu'il produise une législation significative sur l'IA dans un avenir proche."
De même, Margaret Mitchell, chercheuse et responsable de l'éthique chez Hugging Face, a déclaré : "Les gouvernements chercheront à protéger leurs intérêts nationaux, et nombre d'entre eux chercheront à s'imposer en tant que leaders".
Fiabilité des cadres volontaires
S'appuyer sur des cadres volontaires, sous quelque forme que ce soit, n'est pas fiable d'un point de vue historique.
De l'échec de la Société des Nations et de l'accord de Munich dans les années 1930 au protocole de Kyoto, à l'accord de Paris, aux principes directeurs des Nations unies (UNGP) et, dans le monde de l'entreprise, au scandale Enron, les tentatives passées de politique multilatérale volontaire n'inspirent pas confiance.
L'élaboration d'une politique mondiale en matière d'IA risque de suivre les traces de l'histoire, les promesses se brisant sur les rochers de la realpolitik. En ce qui concerne la politique en matière d'IA, un déséquilibre dans la représentation et l'influence a déjà été mis en évidence. Mike Katell, chercheur en éthique à l'Institut Alan Turing, a mis en évidence les disparités régionalesIl y a de grandes lacunes dans l'hémisphère Sud. Il se passe très peu de choses en Afrique".
En outre, la réglementation exige des procédures juridiques rigoureuses et solides pour obliger les entreprises extrêmement puissantes, telles que Microsoft et Google, à rendre des comptes.
Les États-Unis, le Royaume-Uni, l'Union européenne et la Chine peuvent se permettre de créer les types de cadres législatifs nécessaires pour au moins tenter de demander aux entreprises technologiques de rendre des comptes sur l'IA, mais on ne peut pas en dire autant de la plupart des pays en développement.
Cela concentre la protection juridique dans les pays les plus riches, laissant les autres vulnérables à l'exploitation, à la fois en termes de main-d'œuvre pour les services d'étiquetage des données, ce qui est fondamental pour le développement de l'IA, et en termes de leurs données, que les entreprises d'IA pourraient facilement récolter en raison de l'absence de droits numériques.
Les priorités régionales diffèrent
La réglementation de l'IA n'est pas seulement une question nationale, mais une pièce stratégique sur l'échiquier international.
Les États-Unis, par exemple, ont pris des décrets visant à protéger l'innovation dans le domaine de l'IA tout en veillant à ce qu'elle reste conforme aux valeurs et aux normes démocratiques.
De même, l'UE a proposé de manière proactive la loi sur l'IA, qui visait à établir des normes mondiales pour le développement et l'utilisation de l'IA. Cependant, l'UE a sans doute été trop précoce, au risque que sa législation devienne obsolète ou mal définie pour l'industrie actuelle de l'IA, ce qui montre également que l'observation et l'attente constituent un jeu stratégique autant que pratique.
Jusqu'à présent, il a été difficile d'unifier le bloc européen sur les nuances les plus fines de la réglementation de l'IA, telles que les limites à fixer et pour qui, et la manière dont l'application de la loi devrait agir en cas de non-conformité. La loi sera probablement ratifiée prochainement, mais son impact sur la R&D actuelle en matière d'IA nous dira dans quelle mesure elle est efficace pour faire respecter la réglementation.
Dans le même temps, d'autres laissent entendre qu'ils établiront leurs propres règles, des pays comme le Canada et le Japon faisant allusion à leurs propres initiatives politiques en matière d'IA.
En outre, les grandes puissances de l'IA sont parfaitement conscientes que l'établissement de cadres réglementaires peut leur conférer un avantage concurrentiel. Les réglementations qu'elles proposent ne se contentent pas de fixer les normes d'une utilisation éthique de l'IA, mais définissent également les règles du jeu de la concurrence économique.
Le paysage de la gouvernance de l'IA est appelé à devenir une mosaïque d'approches et de philosophies variées.
Les débats sur la "guerre froide de l'IA" s'intensifient
La position agressive des États-Unis, qui veulent devenir un modèle occidental de développement de l'IA, comporte un autre aspect : elle renforce leur position face à la Chine.
Reflétant une rivalité essentiellement technologique plutôt que nucléaire ou idéologique, la concurrence entre les États-Unis et la Chine a été qualifiée par les médias de "guerre froide de l'IA" ou, peut-être plus innocemment, de "course à l'IA".
L'utilisation de l'IA à des fins militaires est au cœur du discours américain sur la restriction des échanges avec la Chine, la technologie des semi-conducteurs apparaissant comme un champ de bataille crucial en raison de son importance fondamentale pour la compétitivité de l'industrie de l'IA.
Le récit de la guerre froide de l'IA a pris racine à la suite de l'annonce par la Chine de son ambition de devenir le leader mondial de l'IA d'ici 2030. Cette affirmation a suscité des inquiétudes et des appels aux États-Unis pour qu'ils maintiennent leur suprématie technologique, non seulement pour leur bien, mais aussi pour les valeurs démocratiques en général, étant donné que l'IA peut renforcer les régimes autoritaires, comme certains l'ont observé dans l'utilisation de la technologie par la Chine dans le cadre de la surveillance de l'État.
Des personnalités de premier plan, telles que l'ancien PDG de Google Eric Schmidt et le politologue Graham T. Allison, se sont ensuite alarmées des progrès rapides de la Chine dans le domaine de l'IA, suggérant que les États-Unis pourraient être à la traîne dans des domaines cruciaux.
En outre, la possibilité d'une utilisation non éthique de l'IA, principalement associée à la Chine, représente un gouffre idéologique qui rappelle la première guerre froide. Les considérations éthiques dans le déploiement de l'IA sont donc devenues un élément narratif central dans les discussions sur cette guerre froide émergente.
Politico a ensuite suggéré qu'une alliance des nations démocratiques pourrait être nécessaire pour contrer la montée en puissance de la Chine dans le domaine de l'IA.
L'industrie des semi-conducteurs est particulièrement controversée, Taïwan jouant un rôle essentiel dans les tensions géographiques. La Taiwan Semiconductor Manufacturing Company (TSMC) en est le centre, et la majorité des semi-conducteurs du monde sont produits ou passent par Taïwan - un pays dont la souveraineté n'est pas reconnue par la Chine. D'ailleurs, la plupart des puces de Nvidia sont également fabriquées à Taïwan.
Les tensions ont également débordé sur les restrictions commerciales, comme l'ont montré les fonctionnaires américains et européens qui ont invoqué la "guerre froide de l'IA" pour justifier l'interdiction de la technologie 5G de Huawei dans les procédures de passation de marchés publics en raison de préoccupations liées à la surveillance.
En outre, les administrations Trump et Biden ont toutes deux imposé des limitations à la société néerlandaise ASML, empêchant l'exportation d'équipements de fabrication de semi-conducteurs avancés vers la Chine, en invoquant là encore des risques pour la sécurité nationale.
En matière de politique industrielle, les États-Unis ont adopté la loi sur l'innovation et la concurrence (Innovation and Competition Act), puis la loi sur les puces et la science (CHIPS and Science Act), qui injectent des milliards dans la technologie et la fabrication pour contrer la menace perçue par la Chine. L'UE a suivi cette approche avec son European Chips Act, qui vise à renforcer ses capacités de fabrication de semi-conducteurs.
La réglementation de l'IA entre peut-être dans une nouvelle phase de débat géopolitique plus intense.
Parallèlement à cela, certains doutent même que la la technologie présente des risques à grande échelleD'autres en sont persuadés. La confusion est palpable de part et d'autre.