Demis Hassabis, PDG de Google DeepMind, a affirmé que les risques liés à l'IA devaient être pris autant au sérieux que la crise climatique, et que la réponse devait être immédiate.
S'exprimant avant le sommet britannique sur la sécurité de l'IA, qui se tiendra les 1er et 2 novembre, M. Hassabis a affirmé que le monde ne devait pas retarder sa réponse aux défis posés par l'IA.
"Nous devons prendre les risques de l'IA aussi sérieusement que les autres grands défis mondiaux, comme le changement climatique", a déclaré M. Hassabis.
"La communauté internationale a mis trop de temps à coordonner une réponse mondiale efficace à ce problème, et nous en subissons aujourd'hui les conséquences. Nous ne pouvons pas nous permettre le même retard avec l'IA".
Hassabis fait référence au Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC).
Il a plaidé, avec d'autres, en faveur de la création d'un organisme international indépendant de réglementation de l'IA, similaire au GIEC ou à l'Agence internationale de l'énergie atomique (AIEA) créé en 1957.
En 1955, le commissaire Willard F. Libby a déclaré à propos de l'énergie nucléaire : "Notre grand risque est que ce grand bienfait pour l'humanité soit tué dans l'œuf par des réglementations inutiles".
Après la création de l'AIEA, il y a eu relativement peu de catastrophes nucléaires jusqu'à Tchernobyl. Nous ne savons pas encore à quoi pourrait ressembler une "catastrophe de l'IA".
Équilibrer les avantages et les risques de l'IA
Tout en reconnaissant le potentiel de transformation de l'IA dans des domaines tels que la médecine et la science, M. Hassabis a également souligné les menaces existentielles posées par la technologie, en particulier le développement de systèmes superintelligents - ou intelligence générale artificielle (AGI).
"Je pense qu'il faut commencer par quelque chose comme le GIEC, qui est un accord scientifique et de recherche avec des rapports, et ensuite construire à partir de là", a conseillé M. Hassabis.
"Ce que j'aimerais voir à terme, c'est l'équivalent d'un Cern pour la sécurité de l'IA, qui mène des recherches dans ce domaine, mais à l'échelle internationale. Et peut-être qu'il y aura un jour un équivalent de l'AIEA, qui vérifie ces choses.
DeepMind a publié de nombreux travaux sur la sécurité de l'IA, notamment un blog technique en collaboration avec plusieurs universités, qui précise que les modèles doivent être évalués pour les "risques extrêmes" avant toute formation.
DeepMind a également établi des preuves expérimentales de la recherche par l'IA de nouveaux objectifs émergents qui s'écartent de manière imprévisible des intentions de leurs développeurs - ou "rogue".
Hassabis et des représentants d'autres grandes entreprises d'IA, comme OpenAI, participeront au sommet sur la sécurité de l'IA en novembre. Le gouvernement britannique a publié le calendrier pour le premier jour de la manifestation.