Le Royaume-Uni négocie avec de grandes entreprises technologiques, dont OpenAI et DeepMind, afin d'obtenir des informations plus précises sur la sécurité de leurs technologies d'IA.
Alors que le Royaume-Uni s'apprête à affronter la Sommet sur la sécurité de l'IALe gouvernement a exprimé son désir de sonder les modèles d'IA et de voir à l'intérieur de la "boîte noire". Des sources au fait des négociations révèlent que les représentants cherchent activement à obtenir l'autorisation de pénétrer dans les rouages des modèles d'IA avancés.
Les grands développeurs d'IA sont notoirement réticents à partager de telles informations - pourraient-ils involontairement divulguer des détails confidentiels sur des produits ou des données d'entraînement protégées par des droits d'auteur ?
Le gouvernement britannique affirme que la compréhension du fonctionnement des modèles d'IA avancés permettra aux autorités de repérer les dangers de manière préventive, mais il n'a pas expliqué précisément ce qu'il veut savoir. Il existe également de nombreux modèles d'IA libres qui fonctionnent de la même manière que les IA propriétaires telles que ChatGPT.
Aux États-Unis, plusieurs développeurs d'IA de premier plan ont signé un accord de coopération avec l'Union européenne. cadre volontaire qui impliquerait que leurs modèles soient testés de manière indépendante avant d'être commercialisés, ce qui est déjà le cas en Chine.
Au début du mois de juin, un accord préliminaire a vu DeepMind, OpenAI et Anthropic consentir à accorder l'accès aux modèles au gouvernement britannique à des fins de recherche et d'évaluation de la sécurité. Toutefois, les modalités de cet accès restent à définir.
Dans un communiqué, Anthropic a indiqué qu'elle étudiait la possibilité de fournir le modèle via une API (interface de programmation d'applications) afin d'équilibrer les préoccupations des deux parties.
Alors qu'une API donne un aperçu limité des opérations du modèle, le gouvernement britannique fait pression pour obtenir une compréhension "plus approfondie", selon des initiés informant l'équipe de l'API de l'existence d'une API. Financial Times.
Les initiés de DeepMind ont convenu qu'il serait utile d'accéder aux modèles pour la recherche sur la sécurité, mais OpenAI n'a pas fait de commentaires.
Une source proche du gouvernement a expliqué : "Ces entreprises ne font pas de l'obstruction, mais il s'agit généralement d'une question délicate et elles ont des préoccupations raisonnables. Il s'agit de questions de recherche ouvertes et non résolues".
Le sommet britannique sur la sécurité de l'IA, qui se tiendra début novembre, est une réponse directe aux appels en faveur d'une réglementation plus stricte de l'IA. Diverses parties prenantes devraient y participer, notamment des responsables chinois.
Selon des sources internes, le gouvernement britannique travaille à la finalisation d'un accord qui sera dévoilé lors du sommet.