Le PDG de DeepMind compare les risques liés à l'IA à la crise climatique

24 octobre 2023

DeepMind AI

Demis Hassabis, PDG de Google DeepMind, a affirmé que les risques liés à l'IA devaient être pris autant au sérieux que la crise climatique, et que la réponse devait être immédiate.

S'exprimant avant le sommet britannique sur la sécurité de l'IA, qui se tiendra les 1er et 2 novembre, M. Hassabis a affirmé que le monde ne devait pas retarder sa réponse aux défis posés par l'IA. 

"Nous devons prendre les risques de l'IA aussi sérieusement que les autres grands défis mondiaux, comme le changement climatique", a déclaré M. Hassabis. 

 "La communauté internationale a mis trop de temps à coordonner une réponse mondiale efficace à ce problème, et nous en subissons aujourd'hui les conséquences. Nous ne pouvons pas nous permettre le même retard avec l'IA".

Hassabis fait référence au Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). 

Il a plaidé, avec d'autres, en faveur de la création d'un organisme international indépendant de réglementation de l'IA, similaire au GIEC ou à l'Agence internationale de l'énergie atomique (AIEA) créé en 1957.

En 1955, le commissaire Willard F. Libby a déclaré à propos de l'énergie nucléaire : "Notre grand risque est que ce grand bienfait pour l'humanité soit tué dans l'œuf par des réglementations inutiles".

Après la création de l'AIEA, il y a eu relativement peu de catastrophes nucléaires jusqu'à Tchernobyl. Nous ne savons pas encore à quoi pourrait ressembler une "catastrophe de l'IA". 

Équilibrer les avantages et les risques de l'IA

Tout en reconnaissant le potentiel de transformation de l'IA dans des domaines tels que la médecine et la science, M. Hassabis a également souligné les menaces existentielles posées par la technologie, en particulier le développement de systèmes superintelligents - ou intelligence générale artificielle (AGI). 

"Je pense qu'il faut commencer par quelque chose comme le GIEC, qui est un accord scientifique et de recherche avec des rapports, et ensuite construire à partir de là", a conseillé M. Hassabis. 

"Ce que j'aimerais voir à terme, c'est l'équivalent d'un Cern pour la sécurité de l'IA, qui mène des recherches dans ce domaine, mais à l'échelle internationale. Et peut-être qu'il y aura un jour un équivalent de l'AIEA, qui vérifie ces choses.

DeepMind a publié de nombreux travaux sur la sécurité de l'IA, notamment un blog technique en collaboration avec plusieurs universités, qui précise que les modèles doivent être évalués pour les "risques extrêmes" avant toute formation. 

DeepMind a également établi des preuves expérimentales de la recherche par l'IA de nouveaux objectifs émergents qui s'écartent de manière imprévisible des intentions de leurs développeurs - ou "rogue".

Hassabis et des représentants d'autres grandes entreprises d'IA, comme OpenAI, participeront au sommet sur la sécurité de l'IA en novembre. Le gouvernement britannique a publié le calendrier pour le premier jour de la manifestation.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation