2 778 chercheurs se prononcent sur les risques liés à l'IA - que nous apprennent leurs réponses ?

4 janvier 2024

Risques liés à l'IA

Une enquête à grande échelle menée auprès de 2 700 chercheurs en IA a révélé des avis partagés sur les risques de l'IA.

Les enquête menée par AI ImpactsL'enquête, la plus importante de ce type, a impliqué des professionnels qui ont publié des travaux de recherche lors de six grandes conférences sur l'IA.

Les participants ont été invités à se prononcer sur les futures étapes de l'IA et leurs implications sociétales. 

Notamment, près de 58% de ces chercheurs estiment qu'il y a 5% de chances que les progrès de l'IA entraînent l'extinction de l'humanité ou des conséquences tout aussi désastreuses.

D'autres résultats suggèrent que l'IA a une probabilité de 50% ou plus de maîtriser des tâches allant de la composition d'une musique à succès au développement d'un site web complet de traitement des paiements au cours de la prochaine décennie. 

Les tâches plus complexes, comme l'installation de câbles électriques ou la résolution de problèmes mathématiques, devraient prendre plus de temps. DeepMind a récemment démontré les performances supérieures de l'IA dans la résolution des problèmes de cap set et de bin packing. 

Les chercheurs estiment également qu'il y a 50% de chances que l'IA dépasse les performances humaines dans toutes les tâches d'ici à 2047 et que tous les emplois humains soient automatisés d'ici à 2116. Pour cela, il faut que la science "ne soit pas perturbée". 

Les résultats sont certes mitigés, mais il est juste de dire que les risques liés à l'IA ne sont pas encore considérés comme ayant atteint une masse critique. 

Katja Grace de l'Institut de recherche sur l'intelligence artificielle en Californie énoncé de l'étudeC'est un signal important que la plupart des chercheurs en IA ne considèrent pas comme très improbable que l'IA avancée détruise l'humanité".

Voici une liste des principales statistiques et conclusions :

  • Probabilité que l'IA atteigne ses objectifs d'ici 2028: Il y a 50% de chances que les systèmes d'IA soient capables de construire un site de traitement des paiements, de créer une chanson impossible à distinguer de celle d'un musicien populaire, et de télécharger et d'affiner un grand modèle de langage (LLM).
  • Prévisions des performances de l'IA au niveau humain: L'étude estime qu'il y a 10% de chances d'ici 2027 et 50% d'ici 2047 que les machines non assistées surpassent les humains dans toutes les tâches. Cette prévision pour 2047 est en avance de 13 ans sur celle de 2022.

  • Automatisation des métiers humains: Il y a 10% de chances que toutes les professions humaines deviennent entièrement automatisables d'ici à 2037 et 50% d'ici à 2116, ce qui représente une avancée par rapport à la prédiction de 2164 faite en 2022.
  • Perspectives sur la valeur à long terme de l'IA68,3% des personnes interrogées pensent que l'IA surhumaine a plus de chances de produire des résultats positifs que négatifs, mais 48% de ces optimistes considèrent qu'il y a au moins 5% de chances que les résultats soient extrêmement négatifs, comme l'extinction de l'espèce humaine. En revanche, 59% des pessimistes considèrent qu'il y a au moins 5% de chances que les résultats soient extrêmement bons.
  • Inquiétudes concernant les scénarios basés sur l'IA: Plus de 70% des chercheurs se disent préoccupés par des questions telles que les falsifications profondes, la manipulation de l'opinion publique et les armes artificielles. Ce sont les falsifications profondes qui ont suscité le plus d'inquiétude, 86% des chercheurs s'étant déclarés préoccupés. 
  • Estimation des probabilités pour les risques liés à l'IA: Entre 37,81 et 51,41 % des personnes interrogées estiment qu'il y a au moins 101 % de chances que l'IA avancée puisse entraîner des conséquences aussi graves que l'extinction de l'humanité.

  • Estimations de probabilités pour HLMI (High-Level Machine Intelligence): Les prévisions globales pour 2023 annoncent une probabilité de 50% d'atteindre l'IHM en 2047, ce qui marque un changement important par rapport aux prévisions de 2060 faites en 2022.
  • Probabilité d'automatisation complète du travail (FAOL): Les prévisions pour 2023 estiment à 50% les chances de voir apparaître FAOL d'ici 2116, soit 48 ans plus tôt qu'une prévision similaire faite en 2022.
  • Recherche sur la sécurité de l'IA: Environ 70% des participants à l'enquête estiment que la recherche sur la sécurité de l'IA devrait être plus prioritaire qu'elle ne l'est actuellement.

Les risques immédiats éclipsent les risques à long terme

Au-delà des risques existentiels, l'enquête montre qu'une grande majorité de chercheurs ont des inquiétudes immédiates concernant l'IA.

Plus de 70% se disent très préoccupés par les questions liées à l'IA telles que les "deep fakes", la manipulation de l'opinion publique, l'armement artificiel, le contrôle autoritaire et l'escalade des inégalités économiques. 

Émile Torres, de la Case Western Reserve University dans l'Ohio, met spécifiquement en garde contre le rôle de l'IA dans la diffusion de la désinformation sur des sujets cruciaux et son impact sur la gouvernance démocratique, en déclarant : "Nous disposons déjà de la technologie, ici et maintenant, qui pourrait sérieusement saper la démocratie [des États-Unis]." 

Les campagnes politiques lancées par des politiciens américains et canadiens ont déjà eu recours à l'IA pour créer des images, et les campagnes d'information de l'Union européenne sont en cours. Appels téléphoniques robotisés sont actuellement déployés pour attirer les électeurs. 

Un autre élément important a été la récente élection en Slovaquie, où, juelque 48 heures avant le scrutin, un clip audio falsifié, dans lequel des personnalités politiques de premier plan discuteraient de tactiques d'achat de votes, a fait son apparition sur les médias sociaux.

Il a déclenché une confusion généralisée au cours d'une période de silence préélectorale critique. Le moment choisi pour la diffusion a rendu presque impossible de contrer rapidement ses effets. 

Plus récemment, des campagnes de dénigrement générées par l'IA ont visé les élections très disputées au BangladeshLe contenu de ces articles vise à discréditer le parti adverse en affirmant qu'il est favorable au bombardement de Gaza, un sujet sensible dans un pays à majorité musulmane. 

Les délais de prise en charge des risques liés à l'IA font l'objet d'un débat

Les comparaisons entre les impacts à court et à long terme de l'IA ont fait l'objet d'un vif débat lorsque le Center for AI Safety (CAIS) a publié son rapport sur la sécurité de l'IA. a fait une déclaration spectaculaire en 2023, comparant les risques liés à l'IA aux pandémies et à la guerre nucléaire. 

C'est alors qu'un déluge médiatique s'abat sur les pires prédictions concernant le développement de l'IA, qu'il s'agisse de robots meurtriers ou de drones incontrôlables sur le champ de bataille. 

Jusqu'à présent, c'est la manière dont les humains utilisent l'IA qui présente des risques - un cas de "l'IA ne tue pas les gens, ce sont les humains qui le font" - et les inquiétudes concernant les risques existentiels sont parfois considérées comme éclipsant ce qui se passe à l'heure actuelle.

Les "deep fakes", en particulier, ont des effets tangibles avérés sur la société humaine.

AI Explosion du Pentagone
Cette fausse image générée par l'IA d'une explosion au Pentagone temporairement... a eu un impact sur les marchés financiers au début de l'année 2023. Source : X.

Il y a un autre aspect à cette question, comme le souligne Yann LeCun, une figure éminente de l'IA, qui suggère que les grandes entreprises de technologie pourraient exagérer ces risques pour faire pencher les mesures réglementaires en leur faveur. 

Les craintes, souvent exprimées par les grandes entreprises technologiques, pourraient être un stratagème stratégique pour encourager l'adoption de réglementations strictes, ce qui pourrait désavantager les petites entités et les initiatives à code source ouvert. 

Cela met en lumière un danger plus subtil : la monopolisation potentielle de l'IA par quelques grandes entreprises, qui risque d'étouffer l'innovation et la diversité dans l'IA.

Les principaux acteurs de l'espace, tels que Google et OpenAI, doivent donc pousser l'industrie dans leur propre direction tant qu'ils peuvent satisfaire aux exigences de conformité.

Risques existentiels - qu'en est-il ?

Le dialogue sur les risques oscille souvent entre deux extrêmes : le scepticisme et l'alarmisme. Quelles sont donc les preuves réelles qui suggèrent que l'IA pourrait nous tuer ou détruire la planète ?

L'idée d'une militarisation de l'IA est peut-être l'exemple le plus imminemment imaginable. Dans ce cas, les systèmes d'IA pourraient tuer des humains avec une surveillance limitée, ou des acteurs menaçants pourraient utiliser la technologie pour développer des armes d'une efficacité cataclysmique. 

Les drones sont sans aucun doute déjà capables de détruire des cibles avec un minimum d'intervention humaine, comme cela s'est produit dans le cadre de l'opération de l'Union européenne. Les conflits israélo-palestiniens et russo-ukrainiens existent déjà.

L'avion sans pilote XQ-58A Valkyrie est devenu entièrement automatisé par l'IA en 2023. Source : Wikimedia Commons.

Un facteur plus subtil du risque existentiel de l'IA est l'affaiblissement. Il ne s'agit pas seulement de perdre des emplois au profit des robots, mais aussi de perdre des capacités humaines essentielles et la créativité. Une analogie courante est le film WALL-E, dans lequel des humains ressemblant à des blobs confient à des robots le soin d'exécuter leurs ordres, au détriment de la Terre elle-même.

Il y a quelques preuves que les LLM tels que ChatGPT érodent la pensée critique des étudiants, bien qu'il soit beaucoup trop tôt pour en être certain.

Les établissements d'enseignement sont désireux d'exploiter les avantages de l'IA sans mettre fin aux études dirigées par des humains, et plusieurs établissements de renom ont approuvé sous conditions l'utilisation de la technologie par les étudiants.

WALL-E AI
WALL-E est un exemple courant d'"affaiblissement" lié à l'IA ou à la technologie.

Un autre risque raisonnablement bien documenté est que l'IA développe des objectifs émergents, comme l'a souligné recherche de l'Université de Cambridge et de DeepMindqui pourrait avoir des conséquences imprévues et potentiellement néfastes pour la société humaine.

Les objectifs émergents pourraient permettre à des IA très intelligentes d'établir leurs propres objectifs imprévisibles, voire de s'échapper de leur architecture pour "infecter" d'autres systèmes. 

En fin de compte, le potentiel d'extinction dramatique et violente de l'IA est hautement spéculatif, et il y a peu d'exemples ou de preuves que cela pourrait se produire bientôt. Les preuves expérimentales concernant les objectifs émergents et d'autres méthodes potentielles de nuisance des IA autonomes sont toutefois de plus en plus nombreuses.

Pour l'instant, nous avons beaucoup de risques immédiats à gérer, et n'oublions pas que ces défis se développeront parallèlement au changement climatique, à la perte d'habitat, aux crises démographiques et à d'autres risques au niveau macroéconomique.

Si les réalisations potentielles de l'IA suscitent l'enthousiasme, les risques immédiats et les implications à long terme suscitent également une inquiétude palpable. 

Cette dernière enquête nous rappelle que le discours sur l'IA ne doit pas être orienté vers les risques existentiels lointains au détriment des défis immédiats et des dilemmes éthiques posés par cette technologie transformatrice. 

À mesure que l'IA progresse, il devient essentiel de trouver un équilibre dans ce débat pour orienter son développement vers des résultats bénéfiques et sûrs pour l'humanité.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation