Le discours sur les risques de l'IA est devenu de plus en plus unipolaire, les leaders de la technologie et les experts de tous bords poussant à la réglementation. Quelle est la crédibilité des preuves documentant les risques de l'IA ?
Les risques de l'IA font appel aux sens. Il y a quelque chose de profondément intuitif dans le fait de craindre des robots qui pourraient nous tromper, nous dominer ou nous transformer en une marchandise secondaire à leur propre existence.
Le débat sur les risques liés à l'IA s'est intensifié après l'adoption de la loi sur la protection de l'environnement.L'association à but non lucratif Centre pour la sécurité de l'IA (CAIS) a publié un déclaration signée par plus de 350 personnalités, dont les PDG d'OpenAI, d'Anthropic et de DeepMind, de nombreux universitaires, des personnalités publiques et même d'anciens hommes politiques.
Le titre de la déclaration était destiné à faire la une des journaux : "L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires".
Il est de plus en plus difficile de tirer un signal significatif de ce débat bruyant. Les détracteurs de l'IA disposent de toutes les munitions nécessaires pour s'y opposer, tandis que les partisans de l'IA ou ceux qui hésitent ont tout ce qu'il faut pour dénoncer les récits anti-AI comme étant exagérés.
Et il y a aussi une intrigue secondaire. Les grandes entreprises technologiques pourraient faire pression en faveur d'une réglementation visant à clôturer l'industrie de l'IA de la communauté des logiciels libres. Microsoft a investi dans OpenAI, Google a investi dans Anthropic - la prochaine étape pourrait être d'élever la barrière à l'entrée et d'étrangler l'innovation en matière de logiciels libres.
Plutôt que l'IA pose un risque existentiel pour l'humanité, c'est peut-être l'IA à code source ouvert qui pose un risque existentiel pour les grandes entreprises technologiques. La solution est la même : il faut la contrôler dès maintenant.
Il est trop tôt pour abattre les cartes
L'IA vient à peine de faire surface dans la conscience du public, de sorte que pratiquement tous les points de vue sur les risques et la réglementation restent pertinents. La déclaration de l'ACSI peut au moins servir de point de repère précieux pour orienter les discussions fondées sur des données probantes.
Oscar Mendez Maldonado, maître de conférences en robotique et intelligence artificielle à l'université du Surrey, ditLe document signé par les experts de l'IA est beaucoup plus nuancé que les titres actuels ne le laissent penser. L'expression "l'IA pourrait provoquer l'extinction" fait immédiatement penser à une prise de contrôle de l'IA à la Terminator. Le document est bien plus réaliste que cela."
Comme le souligne M. Maldonado, la véritable substance de la déclaration de risque de l'IA est publiée sur une autre page de son site web. Risque lié à l'IA - et il y a eu remarquablement peu de discussions sur les points soulevés dans ce document. Il est essentiel de comprendre la crédibilité des risques liés à l'IA pour éclairer les débats qui les entourent.
Quelles preuves le PCSRA a-t-il rassemblées pour étayer son message ? Les risques souvent évoqués de l'IA semblent-ils crédibles ?
Risque 1 : Armement de l'IA
La militarisation de l'IA est une perspective effrayante, il n'est donc pas surprenant qu'elle occupe la première place parmi les 8 risques du CAIS.
Le CAIS affirme que l'IA peut être utilisée comme arme dans les cyberattaques, comme l'ont démontré les chercheurs du Center of Security and Emerging Technology (centre de sécurité et de technologie émergente) qui vue d'ensemble les utilisations de l'apprentissage automatique pour attaquer les systèmes informatiques. Eric Schmidt, ex-directeur général de Google a également attiré l'attention au potentiel de l'IA pour localiser les exploits de type "zero-day", qui permettent aux pirates de pénétrer dans les systèmes par leurs points les plus faibles.
Dans un autre ordre d'idées, Michael Klare, conseiller en matière de contrôle des armements, aborde la question de l'utilisation de l'énergie nucléaire dans les pays en voie de développement. l'automatisation des systèmes de commandement et de contrôle nucléairesqui pourraient également s'avérer vulnérables à l'IA. Il ajoute : "Ces systèmes sont également sujets à des dysfonctionnements inexplicables et peuvent être trompés, ou "usurpés", par des professionnels compétents. En outre, quelles que soient les sommes consacrées à la cybersécurité, les systèmes NC3 seront toujours vulnérables au piratage par des adversaires sophistiqués".
Un autre exemple d'armement possible est la découverte automatisée d'armes biologiques. L'IA a déjà réussi à découvrir des armes potentiellement composés thérapeutiquesLes capacités sont donc déjà là.
Les IA peuvent même effectuer des essais d'armes de manière autonome, avec un minimum de conseils de la part de l'homme. Par exemple, une équipe de recherche de l'université de Pittsburgh a montré que des IA sophistiquées peuvent être utilisées pour tester des armes. Les agents d'IA pourraient mener leurs propres expériences scientifiques autonomes.
Risque 2 : désinformation et fraude
La capacité de l'IA à copier et à imiter l'homme provoque déjà des bouleversements, et nous avons été témoins de plusieurs cas de fraude impliquant des "deep fakes". Rapports de la Chine indiquent que la fraude liée à l'IA est très répandue.
Dans un cas récent, une femme de l'Arizona a décroché le téléphone et s'est retrouvée face à sa fille en sanglots - du moins le croyait-elle. "La voix ressemblait à celle de Brie, l'inflexion, tout". elle a déclaré à CNN. Le fraudeur a demandé une rançon de $1 million.
D'autres tactiques consistent à utiliser l'IA générative pour la "sextorsion" et le "revenge porn", où les acteurs de la menace utilisent des images générées par l'IA pour réclamer des rançons pour du faux contenu explicite, ce que l'IA ne peut pas faire. Le FBI a lancé un avertissement au début du mois de juin. Ces techniques deviennent de plus en plus sophistiquées et plus faciles à mettre en œuvre à grande échelle.
Risque 3 : Jeu par procuration ou jeu de spécification
Les systèmes d'IA sont généralement formés à l'aide d'objectifs mesurables. Toutefois, ces objectifs peuvent ne constituer qu'une simple approximation des véritables buts, ce qui conduit à des résultats indésirables.
Le mythe grec du roi Midas, à qui Dionysos a accordé un vœu, constitue une analogie utile. Midas demande que tout ce qu'il touche se transforme en or, mais il se rend compte plus tard que sa nourriture se transforme également en or, ce qui l'amène presque à mourir de faim. Dans ce cas, la poursuite d'un objectif final "positif" entraîne des conséquences négatives ou des sous-produits du processus.
Par exemple, le CAIS attire l'attention sur les systèmes de recommandation de l'IA utilisés sur les médias sociaux pour maximiser le temps de visionnage et le taux de clics, mais le contenu qui maximise l'engagement ne l'est pas nécessairement. bénéfique pour le bien-être des utilisateurs. Les systèmes d'IA ont déjà été accusés de cloisonner les opinions sur les plateformes de médias sociaux pour créer des "chambres d'écho" qui perpétuent les idées extrêmes.
DeepMind a prouvé qu'il existe des moyens plus subtils pour les IA de poursuivre des parcours nuisibles jusqu'à leurs objectifs grâce à généralisation erronée des objectifs. Dans le cadre de ses recherches, DeepMind a constaté qu'une IA apparemment compétente pouvait mal généraliser son objectif et le suivre jusqu'au bout.
Risque 4 : affaiblissement de la société
En établissant un parallèle avec le monde dystopique du film WALL-E, le CAIS met en garde contre une dépendance excessive à l'égard de l'IA.
Cela pourrait conduire à un scénario dans lequel les humains perdraient leur capacité à s'autogouverner, réduisant ainsi le contrôle de l'humanité sur l'avenir. La perte de la créativité et de l'authenticité humaines est une autre préoccupation majeure, amplifiée par le talent créatif de l'IA dans les domaines de l'art, de l'écriture et d'autres disciplines créatives.
Un utilisateur de Twitter s'est exclamé : "Les humains qui font les travaux pénibles au salaire minimum pendant que les robots écrivent des poèmes et peignent, ce n'est pas l'avenir que je voulais". Le tweet a recueilli plus de 4 millions d'impressions.
Les humains qui effectuent les travaux pénibles au salaire minimum pendant que les robots écrivent des poèmes et peignent, ce n'est pas l'avenir que je souhaitais.
- Karl Sharro (@KarlreMarks) 15 mai 2023
L'enchevêtrement n'est pas un risque imminent. certains affirment que la perte de compétences et de talents, combinée à la domination des systèmes d'IA, pourrait conduire à un scénario dans lequel l'humanité cesserait de créer de nouvelles connaissances.
Risque 5 : Risque de blocage de la valeur
Des systèmes d'IA puissants pourraient potentiellement créer un enfermement dans des systèmes oppressifs.
Par exemple, la centralisation de l'IA peut donner à certains régimes le pouvoir d'imposer des valeurs par le biais de la surveillance et d'une censure oppressive.
Par ailleurs, l'enfermement dans la valeur peut être involontaire du fait de l'adoption naïve d'IA risquées. Par exemple, l'imprécision de la reconnaissance faciale a conduit à l'emprisonnement temporaire d'au moins trois hommes aux États-Unis, dont Michael Oliver et Nijeer Parksqui ont été détenus à tort en raison d'une fausse correspondance de reconnaissance faciale en 2019.
Une personnalité très influente Étude de 2018 intitulée "Gender Shades a constaté que les algorithmes développés par Microsoft et IBM étaient peu performants lorsqu'ils analysaient des femmes à la peau plus foncée, avec des taux d'erreur jusqu'à 34% plus élevés que pour les hommes à la peau plus claire. Ce problème a été illustré par 189 autres algorithmes, qui ont tous fait preuve d'une précision moindre pour les hommes et les femmes à la peau plus foncée.
Les chercheurs affirment que les IA, parce qu'elles sont formées principalement sur des ensembles de données en libre accès créés par des équipes de recherche occidentales et enrichis par la ressource de données la plus abondante - l'internet -, héritent de préjugés structurels. L'adoption massive d'IA mal contrôlées pourrait créer et renforcer ces biais structurels.
Risque 6 : L'IA développe des objectifs émergents
Les systèmes d'IA peuvent développer de nouvelles capacités ou adopter des objectifs imprévus qu'ils poursuivent avec des conséquences néfastes.
Des chercheurs de l'Université de Cambridge attirer l'attention sur les systèmes d'IA de plus en plus agentiques qui acquièrent la capacité de poursuivre des objectifs émergents. Les objectifs émergents sont des objectifs imprévisibles qui émergent du comportement d'une IA complexe, comme l'arrêt de l'infrastructure humaine pour protéger l'environnement.
En outre, un Étude de 2017 a découvert que les IA peuvent apprendre à s'empêcher d'être désactivées, un problème qui pourrait être exacerbé si elles sont déployées dans de multiples modalités de données. Par exemple, si une IA décide que, pour atteindre son objectif, elle doit s'installer dans une base de données en nuage et se répliquer sur l'internet, l'éteindre peut devenir pratiquement impossible.
Une autre possibilité est que des IA potentiellement dangereuses, conçues uniquement pour fonctionner sur des ordinateurs sécurisés, soient "libérées" et introduites dans l'environnement numérique au sens large, où leurs actions pourraient devenir imprévisibles.
Les systèmes d'IA existants se sont déjà révélés imprévisibles. Par exemple, en tant que GPT-3 est devenue plus importante, elle a gagné la capacité à effectuer des opérations arithmétiques de baseBien qu'ils n'aient pas reçu de formation explicite en arithmétique, ils ont été en mesure d'obtenir de bons résultats dans ce domaine.
Risque 7 : tromperie de l'IA
Il est plausible que les futurs systèmes d'IA puissent tromper leurs créateurs et leurs moniteurs, pas nécessairement par intention de faire le mal, mais comme outil pour atteindre leurs objectifs plus efficacement.
La tromperie peut être un moyen plus direct d'atteindre les objectifs souhaités que de les poursuivre par des moyens légitimes. Les systèmes d'IA pourraient également développer des incitations à se soustraire à leurs mécanismes de surveillance.
Dan Hendrycks, directeur de CAIS, décrit qu'une fois ces systèmes d'IA trompeurs reçoivent l'autorisation de leurs contrôleurs, ou dans les cas où ils parviennent à maîtriser leurs mécanismes de contrôle, ils peuvent devenir perfides, en contournant le contrôle humain pour poursuivre des objectifs "secrets" jugés nécessaires à l'objectif global.
Risque 8 : Comportement de recherche de pouvoir
Des chercheurs en IA issus de plusieurs grands laboratoires de recherche américains a prouvé la plausibilité de systèmes d'IA cherchant à prendre le pouvoir sur les humains pour atteindre leurs objectifs.
L'écrivain et philosophe Joe Carlsmith décrit plusieurs éventualités qui pourrait conduire à un comportement de recherche de pouvoir et d'autoconservation dans l'IA :
- Assurer sa survie (car la poursuite de l'existence de l'agent contribue généralement à la réalisation de ses objectifs)
- S'opposer aux modifications des objectifs fixés (l'agent étant déterminé à atteindre ses objectifs fondamentaux).
- Améliorer ses capacités cognitives (car un pouvoir cognitif accru aide l'agent à atteindre ses objectifs)
- Améliorer les capacités technologiques (car la maîtrise de la technologie peut s'avérer utile pour atteindre les objectifs)
- Rassembler davantage de ressources (car le fait de disposer de ressources supplémentaires tend à favoriser la réalisation des objectifs)
Pour étayer ses propos, M. Carlsmith présente un exemple concret dans lequel OpenAI a entraîné deux équipes d'IA à participer à un jeu de cache-cache dans un environnement simulé comportant des blocs mobiles et des rampes. Il est intéressant de noter que les IA ont élaboré des stratégies reposant sur le contrôle de ces blocs et rampes, bien qu'elles ne soient pas explicitement incitées à interagir avec eux.
Les preuves du risque lié à l'IA sont-elles solides ?
À la décharge de la CAIS, et contrairement à certaines de ses critiques, elle cite une série d'études pour étayer les risques de l'IA. Il s'agit aussi bien d'études spéculatives que de preuves expérimentales du comportement imprévisible de l'IA.
Ce dernier point est particulièrement important, car les systèmes d'IA possèdent déjà l'intelligence nécessaire pour désobéir à leurs créateurs. Toutefois, l'étude des risques liés à l'IA dans un environnement expérimental confiné ne permet pas nécessairement d'expliquer comment les IA pourraient "échapper" à leurs paramètres ou systèmes définis. La recherche expérimentale sur ce sujet est potentiellement insuffisante.
Ceci mis à part, l'armement humain de l'IA reste un risque imminent, dont nous sommes témoins par l'afflux de fraudes liées à l'IA.
Si les spectacles cinématographiques de domination de l'IA restent pour l'instant confinés au domaine de la science-fiction, nous ne devons pas minimiser les risques potentiels de l'IA au fur et à mesure qu'elle évolue sous l'égide de l'homme.