Les États-Unis et la Chine se rencontrent en Suisse pour une nouvelle discussion "secrète" sur la sécurité de l'IA

14 mai 2024

  • Les États-Unis et la Chine ont tenu des discussions privées sur la sécurité de l'IA en Suisse.
  • Les discussions portent principalement sur l'armement de l'IA, les "deep fakes" et la désinformation.
  • Malgré les tensions géopolitiques, il existe des signes de collaboration
Sécurité de l'IA

Des représentants de haut niveau des États-Unis et de la Chine se sont réunis à Genève, en Suisse, pour aborder les défis complexes et les risques potentiels de l'IA.

Le présent série de discussionsLes négociations sur le projet de loi sur l'égalité des chances, convenu par le président Joe Biden et le président Xi Jinping, se sont déroulées dans un secret relatif.

Tarun Chhabra, du Conseil de sécurité nationale de la Maison Blanche, et Seth Center, envoyé spécial par intérim pour les technologies critiques et émergentes au département d'État, s'entretiendront avec leurs homologues chinois du ministère des affaires étrangères et de la Commission nationale pour le développement et la réforme. 

L'ordre du jour couvre un large éventail de questions liées à l'IA et centrées sur la sécurité. 

Outre l'objectif pratique d'empêcher les dommages causés par l'IA d'échapper à tout contrôle, il est également symbolique que la sécurité de l'IA transcende les frontières de l'Union européenne. US-La concurrence chinoise, du moins à un certain niveau. 

Une personne anonyme US a reconnu les divergences de points de vue entre les deux pays en déclarant : "Bien que nous ne soyons pas d'accord avec la Chine sur de nombreux sujets et applications liés à l'IA, nous sommes fermement convaincus qu'une communication ouverte sur les risques critiques liés à l'IA est essentielle pour garantir un monde plus sûr".

Cette session particulière explorera l'IA dans des contextes militaires, mais n'abordera pas la question de l'utilisation des technologies de l'information et de la communication (TIC) en cours. US sanctions contre la Chine.

Les discussions se veulent pragmatiques et visent à établir un terrain d'entente sur la sécurité de l'IA plutôt qu'à se concentrer sur les relations géopolitiques. 

Les discussions de Genève contribueront également à l'élan international croissant visant à développer un cadre pour la gouvernance de l'IA.

OpenAI PDG Sam Altman s'est récemment exprimée la création d'une agence vivante chargée d'auditer et de contrôler les risques liés à l'IA, à l'instar de l'Agence internationale de l'énergie atomique (AIEA). 

Son raisonnement est convaincant : "J'ai insisté pour que l'on adopte une approche basée sur les agences pour avoir une vue d'ensemble et non pas pour rédiger des lois... dans 12 mois, tout sera mal rédigé".

Alors pourquoi cela ne s'est-il pas produit ? 

À l'heure actuelle, l'obtention d'une collaboration internationale totale sur la sécurité de l'IA semble être un pont trop loin. Même si la Chine et les US La Russie resterait fermement à la périphérie. 

Malgré les obstacles, la US et la Chine ont manifesté une certaine volonté de collaborer sur les questions d'IA au niveau international. 

En mars, la US a introduit un résolution non contraignante aux Nations unies plaidant pour une IA "sûre, sécurisée et digne de confiance", ce qui a permis d'obtenir le soutien de la Chine.

La Chine a toutefois une autre raison d'accélérer ces discussions. Il semble certain que US Armement IA, y compris avions de combat autonomesL'Union européenne, qui a fait l'objet d'une démonstration récente, est loin devant la Chine. En obtenant des assurances de la part de l US sur l'utilisation de ces technologies ne serait pas de trop.

Jason Glassberg, cofondateur de Casaba Security et expert en menaces émergentes liées à l'IA, estime que les discussions serviront avant tout à jeter les bases d'un dialogue futur et qu'elles ne produiront peut-être pas de résultats immédiats et tangibles.

M. Glassberg souligne qu'il est important que les deux pays reconnaissent les dangers potentiels d'une mauvaise utilisation de l'IA, déclarantCe qui est le plus important à l'heure actuelle, c'est que les deux parties réalisent qu'elles ont beaucoup à perdre si l'IA devient une arme ou fait l'objet d'abus.

Il a ajouté : "Toutes les parties concernées sont également exposées au risque. À l'heure actuelle, l'un des plus grands domaines de risque est celui des "deepfakes", en particulier dans le cadre de campagnes de désinformation."

Avec la US et que le dialogue en cours avec la Chine semble progresser, il ne faudra peut-être pas attendre longtemps avant de voir la création d'une agence internationale pour la sécurité de l'IA. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation