La France, l'Allemagne et l'Italie sont parvenues à un accord sur la manière dont l'IA devrait être réglementée, et cet accord est encore plus strict que la proposition de loi européenne sur l'IA.
Les détails de l'accord sont contenus dans un document commun qui Reuters aurait eu accès.
Le ministre allemand de l'économie, Robert Habeck, et le ministre des affaires numériques, Volker Wissing, ont été chargés de représenter les intérêts de l'Allemagne lors des négociations. M. Wissing a déclaré à Reuters : "Nous devons réglementer les applications et non la technologie si nous voulons jouer dans la première ligue mondiale de l'IA."
L'accent mis sur l'application de l'IA plutôt que sur la technologie sous-jacente reflète le sentiment de la Commission européenne. Loi européenne sur l'IA que le Parlement européen a présenté en juin.
Le document conjoint précise en outre que "les risques inhérents résident dans l'application des systèmes d'IA plutôt que dans la technologie elle-même". Bien qu'il n'énumère pas les spécifications techniques des modèles fondamentaux, il demande aux entreprises d'IA de fournir une "carte modèle" pour leurs modèles d'IA.
La carte du modèle contiendrait des informations relatives au fonctionnement du modèle, à ses capacités et à ses limites.
Une différence intéressante par rapport à la loi européenne sur l'IA est que les trois pays ont convenu que les réglementations devraient être contraignantes pour les entreprises d'IA, quelle que soit leur taille.
La loi européenne sur l'IA prévoyait que les réglementations ne seraient contraignantes que pour les grandes entreprises d'IA telles que Meta ou OpenAI.
Lors de leurs discussions, la France, l'Allemagne et l'Italie ont convenu que la conséquence involontaire de l'octroi d'un passe-droit aux petites entreprises d'IA serait une diminution de la confiance et de l'adoption des modèles des petites entreprises technologiques.
Le Royaume-Uni dit non à la réglementation sur l'IA
Le Royaume-Uni a été à l'avant-garde de la recherche de la sécurité de l'IA lorsqu'il a conduit un certain nombre de pays à signer l'accord sur la sécurité de l'IA. Déclaration de Bletchley. Ce document décrit dans les grandes lignes la manière dont les signataires entendent développer la technologie de l'IA "de manière sûre et responsable".
Jonathan Camrose, ministre britannique de l'IA et de la propriété intellectuelle, a déclaré que le Royaume-Uni n'imposerait pas de nouvelles lois pour réglementer le développement de l'IA à court terme.
"Je ne critiquerais jamais l'action d'un autre pays dans ce domaine, mais il y a toujours un risque de réglementation prématurée. Se précipiter pour réglementer l'IA limiterait la technologie", a déclaré M. Camrose.
Alors que l'UE s'apprête à serrer la vis au développement de l'IA, le Royaume-Uni prend la direction opposée pour se présenter comme un environnement attrayant pour les entreprises de technologie de l'IA.
Commentant l'empressement des autres États à réglementer l'IA, M. Camrose a déclaré : "Vous ne rendez personne aussi sûr qu'il n'y paraît. Vous étouffez l'innovation, et l'innovation est une partie très, très importante de l'équation de l'IA".
En adoptant des mesures de sécurité pour faire face aux risques anticipés ou peut-être imaginés de l'IA, l'Union européenne s'engage peut-être dans la course à l'IA avec un handicap qu'elle s'est imposée à elle-même.