Le Royaume-Uni et les États-Unis ont conclu un protocole d'accord sur la sécurité de l'IA.
La secrétaire américaine au commerce, Gina Raimondo, et la ministre britannique de la technologie, Michelle Donelan, ont évoqué l'accord bilatéral, la ministre Donelan décrivant l'IA comme "le défi technologique déterminant de notre génération".
Le partenariat s'appuie sur les engagements pris lors de la conférence de l'Union européenne sur les droits de l'homme. Sommet sur la sécurité de l'IA à Bletchley Park en novembre 2023.
Ce sommet inédit a réuni des personnalités du secteur de l'IA et des représentants politiques de plusieurs pays, dont une rare collaboration entre les États-Unis et la Chine.
Le sommet a également débouché sur la création, au Royaume-Uni et aux États-Unis, d'"instituts de sécurité de l'IA" chargés d'évaluer les systèmes d'IA à source ouverte ou fermée.
La secrétaire d'État Raimondo a déclaré à propos de cet accord : "Il permettra d'accélérer les travaux de nos deux instituts sur l'ensemble des risques, qu'il s'agisse de notre sécurité nationale ou de notre société au sens large".
M. Raimondo a ajouté : "Notre partenariat montre clairement que nous ne fuyons pas ces problèmes, mais que nous les affrontons".
Grâce à ce nouvel accord, les chercheurs britanniques et américains effectueront des évaluations conjointes de la sécurité, mèneront des exercices d'essai conjoints, "red teaming", et partageront leur expertise.
M. Donselan s'est montré optimiste quant à la création d'une voie sûre pour l'IA, déclarant : "Ce n'est qu'en travaillant ensemble que nous pourrons nous attaquer de front aux risques de la technologie et exploiter son énorme potentiel pour nous aider à vivre plus facilement et plus sainement, soulignant l'impact mondial du rôle du public dans la sécurité de l'IA".
La réglementation de l'industrie de l'IA est devenue une mosaïque d'accords et de cadres volontaires.
Par exemple, l'année dernière, l'administration Biden a élargi son programme d'aide à la recherche et au développement. cadre de sécurité volontaire à des entreprises technologiques telles qu'Adobe, IBM, Nvidia et Salesforce, qui ont rejoint des participants existants tels que Google, Microsoft et OpenAI.
Ces engagements volontaires s'accumulent, mais beaucoup doutent de leur efficacité. Les paroles ne coûtent pas cher, et l'industrie technologique n'a pas toujours réussi à s'autoréguler.
Le Royaume-Uni manque encore largement de réglementation en matière d'IA
Cet accord bilatéral pourrait être crucial pour le Royaume-Uni, qui ne dispose d'aucune forme de réglementation en matière d'IA en l'absence de la loi sur l'IA de l'Union européenne.
Les Loi sur l'IAqui commence son déploiement progressif cette année, impose la transparence et l'évaluation des risques pour les systèmes d'IA. Le Royaume-Uni n'opte pas automatiquement pour les réglementations de l'UE après le Brexit et a été léthargique dans l'établissement de ses propres règles.
Le Premier ministre Rishi Sunak a souhaité promouvoir un cadre "favorable à l'innovation" au Royaume-Uni, faisant allusion à un environnement déréglementé.
Cet accord américano-britannique différencie le Royaume-Uni de l'environnement réglementaire de l'UE. M. Sunak et le chancelier Jeremy Hunt avaient déjà discuté de la création d'une industrie technologique inspirée des États-Unis. - un équivalent britannique de la Silicon Valley.
Cependant, jusqu'à présent, le Royaume-Uni n'a pas réussi à créer une startup d'IA générative comparable à celles des États-Unis, ni à créer une startup d'IA générative comparable à celles des États-Unis, ni à créer une startup d'IA générative. Le Mistral françaisou Aleph Alpha en Allemagne.