Bilan de la deuxième journée du sommet britannique sur la sécurité de l'IA

2 novembre 2023

Sommet de l'IA

Lors de la deuxième journée du sommet sur la sécurité de l'IA, le Premier ministre britannique Rishi Sunak a tenté d'insister sur le fait que les développeurs d'IA devront permettre au gouvernement d'évaluer les outils avant leur mise sur le marché. 

M. Sunak a déclaré que les résultats du sommet "feront pencher la balance en faveur de l'humanité". a révélé que les leaders du secteur, notamment Meta, Google Deep Mind et OpenAI, ont consenti à tester leurs innovations en matière d'IA avant leur diffusion - ce qu'ils avaient déjà déclaré faire dans un récent cadre volontaire élaboré par les États-Unis. 

Parmi les engagements pris au cours de la deuxième journée du sommet figure la création d'un organe d'experts baptisé "Comité d'experts en matière d'environnement et de développement durable". Institut pour la sécurité de l'IA

La deuxième journée a également été marquée par la publication d'un rapport sur l'état de la science de l'IA, dirigé par le parrain de l'IA, Yoshio Bengio.

"Cette idée s'inspire de la manière dont le groupe d'experts intergouvernemental sur l'évolution du climat a été créé pour parvenir à un consensus scientifique international", a déclaré M. Sunak. 

Les cadre convenu plaide pour des évaluations complètes de la sécurité des modèles d'IA avant et après leur mise en service, en mettant l'accent sur les efforts de test collaboratifs impliquant les gouvernements, en particulier dans les domaines touchant à la sécurité nationale et au bien-être de la société.

L'engagement de l'industrie pour cette cause a été souligné par les remarques de Demis Hassabis, PDG de Google DeepMind, qui a déclaré : "L'IA peut aider à résoudre certains des défis les plus critiques de notre époque, qu'il s'agisse de guérir des maladies ou de s'attaquer à la crise climatique. Mais elle présentera également de nouveaux défis pour le monde et nous devons nous assurer que la technologie est construite et déployée en toute sécurité. Pour y parvenir, il faudra un effort collectif de la part des gouvernements, de l'industrie et de la société civile afin d'informer et de développer des tests et des évaluations de sécurité robustes. Je me réjouis de voir le Royaume-Uni lancer l'AI Safety Institute afin d'accélérer les progrès dans ce domaine vital.

La Chine ne participe pas à ces initiatives multilatérales. Toutefois, ce pacte bénéficie du soutien de l'UE et de pays leaders tels que les États-Unis, le Royaume-Uni, le Japon, la France et l'Allemagne, et il est soutenu par des géants de la technologie tels que Google, Amazon, Microsoft et Meta.

Bien que le Premier ministre ait été confronté à des questions concernant la nature volontaire des accords et l'absence de législation contraignante, il a maintenu que l'IA nécessitait une action rapide, suggérant que des "exigences contraignantes" pour les entreprises d'IA pourraient être inévitables.

Avec l'avis d'hier Déclaration de Bletchley ParkLe sommet a tenté de galvaniser l'action autour de l'IA, bien que les critiques l'aient en grande partie qualifié de symbolique plutôt que d'actionnable. 

Avant de mettre en ligne Sunak, Musk a posté sur X une caricature moqueuse de personnages représentant des puissances mondiales qui discutent des risques liés à l'IA tout en se frottant les mains devant le potentiel de domination de l'IA.

Il n'est rien si ce n'est controversé, mais on peut dire que c'est une boutade pleine d'esprit pour un sommet qui est intrinsèquement basé sur des promesses. Il serait toutefois réducteur de suggérer que cela signifie qu'il n'aboutit à rien, mais la substance réelle des pourparlers reste hypothétique.

À l'issue du sommet, le gouvernement britannique a fièrement publié la déclaration de Bletchley, signée par 28 gouvernements, dont le Royaume-Uni, les États-Unis et l'Union européenne, qui promet une approche collaborative des normes de sécurité de l'IA, à l'image des accords sur la crise climatique.

Dans l'ensemble, les efforts diplomatiques de Rishi Sunak lors du sommet sur l'IA ont été reconnus comme une réussite, établissant le Royaume-Uni comme un pionnier dans la poursuite de la sécurité et de la réglementation de l'IA à l'échelle mondiale, préparant le terrain pour l'accueil par la France du prochain sommet en 2024.

Deuxième jour du sommet

La deuxième journée du sommet a été couronnée par un débat entre Sunak et Musk. Voici quelques-uns des événements les plus marquants de la journée, du plus récent (premier) au plus ancien (dernier). 

Regardez la retransmission de 50 minutes ici.

  • Musk a fait valoir qu'un "interrupteur" physique pourrait arrêter l'IA en cas de problèmes catastrophiques. "Que se passerait-il si un jour elles recevaient une mise à jour logicielle et que soudain elles n'étaient plus aussi amicales après tout ? a déclaré Musk à Sunak.
  • Lorsque Sunak demande à Musk pourquoi il a récemment modifié le système de modération du contenu de Twitter, il répond que tous les modérateurs de contenu ont des préjugés. Il demande : "Comment pouvons-nous avoir une approche consensuelle de la vérité ?" et affirme que son objectif est d'arriver à une "vérité plus pure". Musk affirme que son nouveau système de modération fournit simplement plus de contexte et de transparence, déclarant : "Tout est ouvert. Vous pouvez consulter toutes les données et voir si le système a été manipulé, suggérer des améliorations... La vérité paie."
  • Musk prédit qu'à l'avenir, les robots IA pourraient devenir de véritables amis des humains. Il affirme qu'ils auront une mémoire détaillée et des connaissances issues de lectures approfondies, déclarant : "Vous pourriez lui parler tous les jours, vous auriez en fait un grand ami. Ce sera une réalité.
  • Musk fait la prédiction audacieuse que l'IA progressera au point qu'il n'y aura plus besoin d'emploi pour les humains. Il déclare : "Vous pouvez avoir un travail si vous le souhaitez pour votre satisfaction personnelle, l'IA peut tout faire". Musk affirme que cela pourrait être positif ou négatif, et poser des problèmes pour trouver un sens et un but. Mais il affirme également que l'IA pourrait fournir un "revenu élevé universel" et faire les meilleurs tuteurs. Dans l'ensemble, il y voit de nombreux avantages pour l'éducation, la productivité et l'automatisation des emplois dangereux.
  • Lorsque M. Sunak fait remarquer qu'il a été critiqué pour avoir invité la Chine, M. Musk salue le "courage" de cette décision. Musk soutient que la collaboration avec la Chine sur la sécurité de l'IA est essentielle, affirmant que leur participation est un signe très positif.
  • Musk explique à Sunak qu'il pense que les gouvernements doivent agir comme des "arbitres" pour garantir la sécurité publique avec l'IA tout en permettant l'innovation. Il réitère son point de vue selon lequel, dans l'ensemble, l'IA sera "une force pour le bien". Ces propos vont à l'encontre de ceux que Musk a tenus par le passé, ce qui témoigne de l'instabilité de son point de vue sur l'IA. 
  • Avant leur entretien, M. Musk se montre optimiste quant au potentiel de l'IA, mais prévient qu'elle pourrait présenter des risques, en utilisant l'analogie d'un "problème de génie magique", où les vœux se trompent souvent
  • Lors de sa conférence de presse, M. Sunak a défendu les mesures prises par les gouvernements pour faire face aux risques liés à la sécurité de l'IA, affirmant qu'ils agissaient de manière "juste et responsable" pour protéger le public, même si les risques sont encore incertains.
  • Un nouveau sondage révèle que seulement 15% des personnes ont confiance dans la capacité du gouvernement britannique à réglementer efficacement l'IA. 29% n'expriment aucune confiance.
  • Lorsqu'on lui demande si l'IA peut constituer une menace existentielle, M. Sunak répond qu'il est plausible qu'elle entraîne des risques de l'ordre d'une guerre nucléaire ou d'une pandémie. Il estime que les dirigeants ont donc le devoir de prendre des mesures de protection.
  • La secrétaire d'État aux sciences, Mme Donelan, déclare que le risque d'IA qui la préoccupe le plus est un "scénario Terminator" dans lequel les machines deviendraient incontrôlables. Elle considère que ce scénario est moins probable, mais qu'il a les conséquences les plus graves.

Une analyse plus approfondie du sommet sera présentée dans les jours qui suivent. Dans l'ensemble, l'impression qui s'en dégage est celle d'un événement symboliquement capital, doté d'un énorme potentiel.

Mais le potentiel n'est pas facilement converti en législation et, en fin de compte, en action. Seul l'avenir nous le dira.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation