Londres, Royaume-Uni - Le Premier ministre Rishi Sunak a déclaré la semaine dernière à la London Tech Week qu'OpenAI, Google DeepMind et Anthropic ont promis de fournir un "accès anticipé ou prioritaire" à leurs modèles d'IA.
Cette initiative vise à soutenir la recherche dans le domaine de l'intelligence artificielle axée sur l'évaluation et la sécurité. Cette déclaration fait suite à la Plan du gouvernement britannique d'organiser une réunion mondiale sur la sécurité de l'IA.
Le Premier ministre Sunak a exprimé son engagement en faveur de la recherche sur la sécurité de l'IA en déclarant : "Nous allons mener des recherches de pointe sur la sécurité [de l'IA] ici, au Royaume-Uni. Nous investissons plus d'argent dans la sécurité de l'IA que tout autre gouvernement, y compris 100 millions de livres pour notre équipe d'experts."
Il a poursuivi en expliquant : "Nous collaborons avec les laboratoires pionniers - Google DeepMind, OpenAI et Anthropic. Et je suis heureux de dire qu'ils ont accepté de fournir un accès anticipé ou prioritaire aux modèles pour des raisons de recherche et de sécurité afin de nous aider à construire de meilleures évaluations et à comprendre le potentiel et les dangers de ces systèmes."
Le Premier ministre Sunak a établi un lien avec les conférences COP sur le climat afin de promouvoir le Royaume-Uni en tant que centre mondial de réglementation de la sécurité de l'IA. "Tout comme nous nous unissons dans le cadre de la COP pour lutter contre le changement climatique, le Royaume-Uni accueillera le tout premier sommet sur la sécurité mondiale de l'IA dans le courant de l'année", a-t-il déclaré à propos de la réunion imminente. "Mon objectif est de faire du Royaume-Uni non seulement le foyer intellectuel, mais aussi le foyer géographique de la réglementation mondiale en matière de sécurité de l'IA.
L'importance accordée aujourd'hui à la sécurité de l'IA reflète un changement d'attitude substantiel de la part du gouvernement. Dans le passé, le gouvernement britannique privilégiait une position favorable à l'innovation et des principes flexibles pour la gouvernance de l'IA, rejetant la nécessité de réglementations techniques ou d'agences de surveillance.
Toutefois, face aux inquiétudes croissantes concernant les risques et le contrôle de l'IA, Downing Street a rapidement réévalué son plan.
Si la promesse des entreprises d'IA de fournir un meilleur accès à leurs modèles donne au Royaume-Uni la possibilité d'être à la pointe des approches d'examen et d'audit de l'IA, il existe un risque d'influence de l'industrie sur les mesures de sécurité de l'IA dans le pays.
Les géants de l'IA pourraient être en mesure de façonner les futures règles de l'IA qui concernent leurs propres entreprises en façonnant le débat autour de la recherche sur la sécurité de l'IA et en influençant l'ordre de priorité des questions.
Pour garantir la production de résultats fiables et rigoureux, les programmes de sécurité de l'IA du gouvernement britannique doivent inclure des chercheurs indépendants, des organisations de la société civile et les personnes les plus exposées aux dommages causés par l'automatisation.
Les éthiciens ont souligné la nécessité de remédier aux injustices réelles créées par la technologie de l'IA, notamment les préjugés, la discrimination, l'atteinte à la vie privée, la violation de la propriété intellectuelle et l'exploitation de l'environnement.
Alors que le Royaume-Uni avance dans son programme de sécurité de l'IA, combiner la participation de l'industrie avec une supervision indépendante sera essentiel pour développer un écosystème de l'IA responsable et inclusif qui protège contre les dangers possibles tout en maximisant les avantages de l'intelligence artificielle.