Le gouvernement britannique veut pénétrer dans la "boîte noire" de l'IA

29 septembre 2023

Sommet sur la sécurité de l'IA

Le Royaume-Uni négocie avec de grandes entreprises technologiques, dont OpenAI et DeepMind, afin d'obtenir des informations plus précises sur la sécurité de leurs technologies d'IA. 

Alors que le Royaume-Uni s'apprête à affronter la Sommet sur la sécurité de l'IALe gouvernement a exprimé son désir de sonder les modèles d'IA et de voir à l'intérieur de la "boîte noire". Des sources au fait des négociations révèlent que les représentants cherchent activement à obtenir l'autorisation de pénétrer dans les rouages des modèles d'IA avancés.

Les grands développeurs d'IA sont notoirement réticents à partager de telles informations - pourraient-ils involontairement divulguer des détails confidentiels sur des produits ou des données d'entraînement protégées par des droits d'auteur ?

Le gouvernement britannique affirme que la compréhension du fonctionnement des modèles d'IA avancés permettra aux autorités de repérer les dangers de manière préventive, mais il n'a pas expliqué précisément ce qu'il veut savoir. Il existe également de nombreux modèles d'IA libres qui fonctionnent de la même manière que les IA propriétaires telles que ChatGPT. 

Aux États-Unis, plusieurs développeurs d'IA de premier plan ont signé un accord de coopération avec l'Union européenne. cadre volontaire qui impliquerait que leurs modèles soient testés de manière indépendante avant d'être commercialisés, ce qui est déjà le cas en Chine.

Au début du mois de juin, un accord préliminaire a vu DeepMind, OpenAI et Anthropic consentir à accorder l'accès aux modèles au gouvernement britannique à des fins de recherche et d'évaluation de la sécurité. Toutefois, les modalités de cet accès restent à définir. 

Dans un communiqué, Anthropic a indiqué qu'elle étudiait la possibilité de fournir le modèle via une API (interface de programmation d'applications) afin d'équilibrer les préoccupations des deux parties.

Alors qu'une API donne un aperçu limité des opérations du modèle, le gouvernement britannique fait pression pour obtenir une compréhension "plus approfondie", selon des initiés informant l'équipe de l'API de l'existence d'une API. Financial Times

Les initiés de DeepMind ont convenu qu'il serait utile d'accéder aux modèles pour la recherche sur la sécurité, mais OpenAI n'a pas fait de commentaires.

Une source proche du gouvernement a expliqué : "Ces entreprises ne font pas de l'obstruction, mais il s'agit généralement d'une question délicate et elles ont des préoccupations raisonnables. Il s'agit de questions de recherche ouvertes et non résolues". 

Le sommet britannique sur la sécurité de l'IA, qui se tiendra début novembre, est une réponse directe aux appels en faveur d'une réglementation plus stricte de l'IA. Diverses parties prenantes devraient y participer, notamment des responsables chinois. 

Selon des sources internes, le gouvernement britannique travaille à la finalisation d'un accord qui sera dévoilé lors du sommet.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation