Les entreprises technologiques du monde entier s'engagent à respecter un nouvel ensemble de règles volontaires

21 mai 2024

  • 16 entreprises technologiques internationales ont mis en place un nouveau cadre de sécurité
  • D'éminents chercheurs mettent en garde contre les "risques extrêmes" potentiels de l'IA
  • Lors du sommet de Séoul sur la sécurité de l'IA, 10 nations ont mis en place un réseau de sécurité de l'IA.
Sécurité de l'IA

Les principales entreprises d'IA ont accepté une nouvelle série d'engagements volontaires en matière de sécurité, annoncés par les gouvernements britannique et sud-coréen avant un sommet de deux jours sur l'IA à Séoul.

16 entreprises technologiques ont opté pour ce cadre, dont AmazonGoogle, Meta, Microsoft, OpenAIxAI, et Zhipu AI.

Il s'agit du premier cadre approuvé par des entreprises d'Amérique du Nord, d'Europe, du Moyen-Orient (The Technology Innovation Institute) et d'Asie, y compris la Chine (Zhipu AI). 

Parmi les engagements pris, les entreprises s'engagent à "ne pas développer ou déployer un modèle du tout" si des risques graves ne peuvent être gérés.

Les entreprises ont également accepté de publier la manière dont elles mesureront et atténueront les risques associés aux modèles d'IA.

Les nouveaux engagements La publication de ce rapport intervient après que d'éminents chercheurs en IA, dont Yoshua Bengio, Geoffrey Hinton, Andrew Yao et Yuval Noah Harari, ont publié un rapport sur l'utilisation de l'intelligence artificielle. papier dans la science nommée Gérer les risques extrêmes liés à l'IA dans un contexte de progrès rapides.

Ce document contenait plusieurs recommandations qui ont contribué à orienter le nouveau cadre de sécurité :

  • Contrôle et honnêteté: Développer des méthodes pour garantir que les systèmes d'IA sont transparents et produisent des résultats fiables.
  • Robustesse: Garantir que les systèmes d'IA se comportent de manière prévisible dans de nouvelles situations.
  • Interprétabilité et transparence: Comprendre les processus décisionnels de l'IA.
  • Développement inclusif de l'IA: Atténuer les préjugés et intégrer des valeurs diverses.
  • Évaluation des actions dangereuses: Développer des méthodes rigoureuses pour évaluer les capacités de l'IA et prévoir les risques avant le déploiement.
  • Évaluer l'alignement de l'IA: Veiller à ce que les systèmes d'IA s'alignent sur les objectifs visés et ne poursuivent pas d'objectifs nuisibles.
  • Évaluation des risques: Évaluer de manière exhaustive les risques sociétaux associés au déploiement de l'IA.
  • La résilience: Créer des défenses contre les menaces fondées sur l'IA, telles que les cyberattaques et la manipulation sociale.

Anna Makanju, vice-présidente chargée des affaires internationales à l'Agence européenne pour la sécurité et la santé au travail (ESA). OpenAILe domaine de la sécurité de l'IA évolue rapidement, et nous sommes particulièrement heureux d'approuver l'accent mis par les engagements sur l'affinement des approches parallèlement à la science. Nous restons déterminés à collaborer avec d'autres laboratoires de recherche, des entreprises et des gouvernements pour faire en sorte que l'IA soit sûre et profite à l'ensemble de l'humanité."

Michael Sellitto, responsable des affaires mondiales à l'Agence européenne pour l'environnement. AnthropicLes engagements de Frontier AI en matière de sécurité soulignent l'importance d'un développement sûr et responsable des modèles Frontier. En tant qu'organisation axée sur la sécurité, nous avons fait de la mise en œuvre de politiques rigoureuses, de la constitution d'équipes d'experts et de la collaboration avec des experts externes une priorité pour nous assurer que nos modèles sont sûrs. Ces engagements constituent une étape importante pour encourager le développement et le déploiement responsables de l'IA".

Un autre cadre volontaire

Cela reflète les "engagements volontaires" pris lors de l'Assemblée générale des Nations unies. Maison Blanche en juillet de l'année dernière par Amazon, AnthropicLes entreprises de l'industrie de l'énergie, Google, Inflection AI, Meta, Microsoft, et OpenAI encourager le développement sûr, sécurisé et transparent de la technologie de l'IA. 

Ces nouvelles règles prévoient que les 16 entreprises doivent "assurer la transparence publique" de leur mise en œuvre de la sécurité, sauf si cela risque d'accroître les risques ou de divulguer des informations commerciales sensibles de manière disproportionnée par rapport aux avantages pour la société.

Le premier ministre britannique, Rishi Sunak, a déclaré : "C'est une première mondiale que de voir autant d'entreprises leaders en matière d'IA, issues de régions aussi différentes du globe, prendre les mêmes engagements en matière de sécurité de l'IA". 

Il s'agit d'une première mondiale, car des entreprises situées au-delà de l'Europe et de l'Amérique du Nord, telles que la société chinoise Zhipu.ai, l'a rejoint. 

Toutefois, les engagements volontaires en faveur de la sécurité de l'IA sont en vogue depuis un certain temps.

Les entreprises du secteur de l'IA risquent peu de les accepter, car il n'existe aucun moyen de les faire respecter. Cela montre également à quel point ils sont un instrument émoussé lorsqu'il s'agit de passer à l'action. 

Dan Hendrycks, conseiller en sécurité de la startup xAI d'Elon Musk, a fait remarquer que les engagements volontaires contribueraient à "jeter les bases d'une réglementation nationale concrète".

Un commentaire juste, mais de son propre aveu, nous devons encore "poser les fondations" lorsque des risques extrêmes frappent à la porte, selon certains chercheurs de premier plan. 

Tout le monde n'est pas d'accord sur le danger réel de l'IAMais il n'en reste pas moins que le sentiment qui sous-tend ces cadres ne s'aligne pas encore sur les actions. 

Les pays forment un réseau de sécurité en matière d'IA

Alors que ce petit sommet sur la sécurité de l'IA s'ouvre à Séoul, en Corée du Sud, dix pays et l'Union européenne (UE) ont convenu d'établir un réseau international d'"instituts de sécurité de l'IA" soutenus par les pouvoirs publics.

Le "Déclaration d'intention de Séoul sur la coopération internationale en matière de science de la sécurité de l'IA"Cet accord concerne des pays tels que le Royaume-Uni, les États-Unis, l'Australie, le Canada, la France, l'Allemagne, l'Italie, le Japon, la Corée du Sud, Singapour et l'Union européenne. 

La Chine est notablement absente de l'accord. Cependant, le gouvernement chinois a participé et l'entreprise chinoise Zhipu.ai a signé le cadre décrit ci-dessus. 

La Chine a déjà exprimé sa volonté de coopérer dans le domaine de la sécurité de l'IA et s'est engagée dans un processus d'évaluation de la sécurité de l'IA. des discussions "secrètes" avec la US.

Le présent sommet intérimaire plus restreint s'est déroulée avec moins de fanfare que la première, qui s'est tenue à Bletchley Park, au Royaume-Uni, en novembre dernier. 

Cependant, plusieurs personnalités du monde de la technologie se sont jointes à l'initiative, notamment Elon Musk, l'ancien PDG de Google, Eric Schmidt, et le président de la Commission européenne. DeepMind Sir Demis Hassabis.

D'autres engagements et discussions seront dévoilés au cours des prochains jours.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation