{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/fr\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Naviguer dans le labyrinthe des risques li\u00e9s \u00e0 l'IA : une analyse"},"content":{"rendered":"<p><strong>Le discours sur les risques de l'IA est devenu de plus en plus unipolaire, les leaders de la technologie et les experts de tous bords poussant \u00e0 la r\u00e9glementation. Quelle est la cr\u00e9dibilit\u00e9 des preuves documentant les risques de l'IA ?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Les risques de l'IA font appel aux sens. <\/span><span style=\"font-weight: 400\">Il y a quelque chose de profond\u00e9ment intuitif dans le fait de craindre des robots qui pourraient nous tromper, nous dominer ou nous transformer en une marchandise secondaire \u00e0 leur propre existence.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Le d\u00e9bat sur les risques li\u00e9s \u00e0 l'IA s'est intensifi\u00e9 apr\u00e8s l'adoption de la loi sur la protection de l'environnement.<\/span><span style=\"font-weight: 400\">L'association \u00e0 but non lucratif <\/span><span style=\"font-weight: 400\">Centre pour la s\u00e9curit\u00e9 de l'IA (CAIS)<\/span><span style=\"font-weight: 400\"> a publi\u00e9 un <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">d\u00e9claration<\/a>\u00a0sign\u00e9e par plus de 350 personnalit\u00e9s, dont les PDG d'OpenAI, d'Anthropic et de DeepMind, de nombreux universitaires, des personnalit\u00e9s publiques et m\u00eame d'anciens hommes politiques.\u00a0<\/span><\/p>\n<p>Le titre de la d\u00e9claration \u00e9tait destin\u00e9 \u00e0 faire la une des journaux : <strong>\"L'att\u00e9nuation du risque d'extinction par l'IA devrait \u00eatre une priorit\u00e9 mondiale au m\u00eame titre que d'autres risques \u00e0 l'\u00e9chelle de la soci\u00e9t\u00e9 tels que les pand\u00e9mies et les guerres nucl\u00e9aires\".<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Il est de plus en plus difficile de tirer un signal significatif de ce d\u00e9bat bruyant. Les d\u00e9tracteurs de l'IA disposent de toutes les munitions n\u00e9cessaires pour s'y opposer, tandis que les partisans de l'IA ou ceux qui h\u00e9sitent ont tout ce qu'il faut pour d\u00e9noncer les r\u00e9cits anti-AI comme \u00e9tant exag\u00e9r\u00e9s.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Et il y a aussi une intrigue secondaire. Les grandes entreprises technologiques pourraient faire pression en faveur d'une r\u00e9glementation visant \u00e0 <a href=\"https:\/\/dailyai.com\/fr\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">cl\u00f4turer l'industrie de l'IA<\/a> de la communaut\u00e9 des logiciels libres. <\/span>Microsoft a investi dans OpenAI, Google a investi dans Anthropic - la prochaine \u00e9tape pourrait \u00eatre d'\u00e9lever la barri\u00e8re \u00e0 l'entr\u00e9e et d'\u00e9trangler l'innovation en mati\u00e8re de logiciels libres.<\/p>\n<p>Plut\u00f4t que l'IA pose un risque existentiel pour l'humanit\u00e9, c'est peut-\u00eatre l'IA \u00e0 code source ouvert qui pose un risque existentiel pour les grandes entreprises technologiques. La solution est la m\u00eame : il faut la contr\u00f4ler d\u00e8s maintenant.<\/p>\n<h2>Il est trop t\u00f4t pour abattre les cartes<\/h2>\n<p>L'IA vient \u00e0 peine de faire surface dans la conscience du public, de sorte que pratiquement tous les points de vue sur les risques et la r\u00e9glementation restent pertinents. La d\u00e9claration de l'ACSI peut au moins servir de point de rep\u00e8re pr\u00e9cieux pour orienter les discussions fond\u00e9es sur des donn\u00e9es probantes.<\/p>\n<p><span style=\"font-weight: 400\">Oscar Mendez Maldonado, ma\u00eetre de conf\u00e9rences en robotique et intelligence artificielle \u00e0 l'universit\u00e9 du Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">dit<\/a>Le document sign\u00e9 par les experts de l'IA est beaucoup plus nuanc\u00e9 que les titres actuels ne le laissent penser. L'expression \"l'IA pourrait provoquer l'extinction\" fait imm\u00e9diatement penser \u00e0 une prise de contr\u00f4le de l'IA \u00e0 la Terminator. Le document est bien plus r\u00e9aliste que cela.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Comme le souligne M. Maldonado, la v\u00e9ritable substance de la d\u00e9claration de risque de l'IA est publi\u00e9e sur une autre page de son site web. <a href=\"https:\/\/www.safe.ai\/ai-risk\">Risque li\u00e9 \u00e0 l'IA<\/a> - et il y a eu remarquablement peu de discussions sur les points soulev\u00e9s dans ce document. Il est essentiel de comprendre la cr\u00e9dibilit\u00e9 des risques li\u00e9s \u00e0 l'IA pour \u00e9clairer les d\u00e9bats qui les entourent.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Quelles preuves le PCSRA a-t-il rassembl\u00e9es pour \u00e9tayer son message ? Les risques souvent \u00e9voqu\u00e9s de l'IA semblent-ils cr\u00e9dibles ?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 1 : Armement de l'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">La militarisation de l'IA est une perspective effrayante, il n'est donc pas surprenant qu'elle occupe la premi\u00e8re place parmi les 8 risques du CAIS.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Le CAIS affirme que l'IA peut \u00eatre utilis\u00e9e comme arme dans les cyberattaques, comme l'ont d\u00e9montr\u00e9 les chercheurs du Center of Security and Emerging Technology (centre de s\u00e9curit\u00e9 et de technologie \u00e9mergente) qui <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">vue d'ensemble les utilisations<\/span><\/a><span style=\"font-weight: 400\"> de l'apprentissage automatique pour attaquer les syst\u00e8mes informatiques. <\/span><span style=\"font-weight: 400\">Eric Schmidt, ex-directeur g\u00e9n\u00e9ral de Google <a href=\"https:\/\/dailyai.com\/fr\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">a \u00e9galement attir\u00e9 l'attention<\/a> au potentiel de l'IA pour localiser les exploits de type \"zero-day\", qui permettent aux pirates de p\u00e9n\u00e9trer dans les syst\u00e8mes par leurs points les plus faibles.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dans un autre ordre d'id\u00e9es, Michael Klare, conseiller en mati\u00e8re de contr\u00f4le des armements, aborde la question de l'utilisation de l'\u00e9nergie nucl\u00e9aire dans les pays en voie de d\u00e9veloppement. <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">l'automatisation des syst\u00e8mes de commandement et de contr\u00f4le nucl\u00e9aires<\/span><\/a><span style=\"font-weight: 400\">qui pourraient \u00e9galement s'av\u00e9rer vuln\u00e9rables \u00e0 l'IA. Il ajoute : \"Ces syst\u00e8mes sont \u00e9galement sujets \u00e0 des dysfonctionnements inexplicables et peuvent \u00eatre tromp\u00e9s, ou \"usurp\u00e9s\", par des professionnels comp\u00e9tents. En outre, quelles que soient les sommes consacr\u00e9es \u00e0 la cybers\u00e9curit\u00e9, les syst\u00e8mes NC3 seront toujours vuln\u00e9rables au piratage par des adversaires sophistiqu\u00e9s\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un autre exemple d'armement possible est la d\u00e9couverte automatis\u00e9e d'armes biologiques. L'IA a d\u00e9j\u00e0 r\u00e9ussi \u00e0 d\u00e9couvrir des armes potentiellement <a href=\"https:\/\/dailyai.com\/fr\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">compos\u00e9s th\u00e9rapeutiques<\/a>Les capacit\u00e9s sont donc d\u00e9j\u00e0 l\u00e0.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Les IA peuvent m\u00eame effectuer des essais d'armes de mani\u00e8re autonome, avec un minimum de conseils de la part de l'homme. Par exemple, une \u00e9quipe de recherche de l'universit\u00e9 de Pittsburgh a montr\u00e9 que des IA sophistiqu\u00e9es peuvent \u00eatre utilis\u00e9es pour tester des armes. <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">Les agents d'IA pourraient mener leurs propres exp\u00e9riences scientifiques autonomes<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 2 : d\u00e9sinformation et fraude<\/span><\/h2>\n<p><span style=\"font-weight: 400\">La capacit\u00e9 de l'IA \u00e0 copier et \u00e0 imiter l'homme provoque d\u00e9j\u00e0 des bouleversements, et nous avons \u00e9t\u00e9 t\u00e9moins de plusieurs cas de fraude impliquant des \"deep fakes\". <a href=\"https:\/\/dailyai.com\/fr\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Rapports de la Chine<\/a> indiquent que la fraude li\u00e9e \u00e0 l'IA est tr\u00e8s r\u00e9pandue.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dans un cas r\u00e9cent, une femme de l'Arizona a d\u00e9croch\u00e9 le t\u00e9l\u00e9phone et s'est retrouv\u00e9e face \u00e0 sa fille en sanglots - du moins le croyait-elle. \"La voix ressemblait \u00e0 celle de Brie, l'inflexion, tout\". <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">elle a d\u00e9clar\u00e9 \u00e0 CNN<\/span><\/a><span style=\"font-weight: 400\">. Le fraudeur a demand\u00e9 une ran\u00e7on de $1 million.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">D'autres tactiques consistent \u00e0 utiliser l'IA g\u00e9n\u00e9rative pour la \"sextorsion\" et le \"revenge porn\", o\u00f9 les acteurs de la menace utilisent des images g\u00e9n\u00e9r\u00e9es par l'IA pour r\u00e9clamer des ran\u00e7ons pour du faux contenu explicite, ce que l'IA ne peut pas faire. <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">Le FBI a lanc\u00e9 un avertissement au d\u00e9but du mois de juin<\/span><\/a><span style=\"font-weight: 400\">. Ces techniques deviennent de plus en plus sophistiqu\u00e9es et plus faciles \u00e0 mettre en \u0153uvre \u00e0 grande \u00e9chelle.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 3 : Jeu par procuration ou jeu de sp\u00e9cification<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Les syst\u00e8mes d'IA sont g\u00e9n\u00e9ralement form\u00e9s \u00e0 l'aide d'objectifs mesurables. Toutefois, ces objectifs peuvent ne constituer qu'une simple approximation des v\u00e9ritables buts, ce qui conduit \u00e0 des r\u00e9sultats ind\u00e9sirables.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Le mythe grec du roi Midas, \u00e0 qui Dionysos a accord\u00e9 un v\u0153u, constitue une analogie utile.\u00a0<\/span><span style=\"font-weight: 400\">Midas demande que tout ce qu'il touche se transforme en or, mais il se rend compte plus tard que sa nourriture se transforme \u00e9galement en or, ce qui l'am\u00e8ne presque \u00e0 mourir de faim.\u00a0<\/span><span style=\"font-weight: 400\">Dans ce cas, la poursuite d'un objectif final \"positif\" entra\u00eene des cons\u00e9quences n\u00e9gatives ou des sous-produits du processus. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Par exemple, le CAIS attire l'attention sur les syst\u00e8mes de recommandation de l'IA utilis\u00e9s sur les m\u00e9dias sociaux pour maximiser le temps de visionnage et le taux de clics, mais le contenu qui maximise l'engagement ne l'est pas n\u00e9cessairement. <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">b\u00e9n\u00e9fique pour le bien-\u00eatre des utilisateurs<\/span><\/a><span style=\"font-weight: 400\">. Les syst\u00e8mes d'IA ont d\u00e9j\u00e0 \u00e9t\u00e9 accus\u00e9s de cloisonner les opinions sur les plateformes de m\u00e9dias sociaux pour cr\u00e9er des \"chambres d'\u00e9cho\" qui perp\u00e9tuent les id\u00e9es extr\u00eames.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind a prouv\u00e9 qu'il existe des moyens plus subtils pour les IA de poursuivre des parcours nuisibles jusqu'\u00e0 leurs objectifs gr\u00e2ce \u00e0 <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">g\u00e9n\u00e9ralisation erron\u00e9e des objectifs<\/span><\/a><span style=\"font-weight: 400\">. Dans le cadre de ses recherches, DeepMind a constat\u00e9 qu'une IA apparemment comp\u00e9tente pouvait mal g\u00e9n\u00e9raliser son objectif et le suivre jusqu'au bout.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 4 : affaiblissement de la soci\u00e9t\u00e9<\/span><\/h2>\n<p><span style=\"font-weight: 400\">En \u00e9tablissant un parall\u00e8le avec le monde dystopique du film WALL-E, le CAIS met en garde contre une d\u00e9pendance excessive \u00e0 l'\u00e9gard de l'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Cela pourrait conduire \u00e0 un sc\u00e9nario dans lequel les humains perdraient leur capacit\u00e9 \u00e0 s'autogouverner, r\u00e9duisant ainsi le contr\u00f4le de l'humanit\u00e9 sur l'avenir. La perte de la cr\u00e9ativit\u00e9 et de l'authenticit\u00e9 humaines est une autre pr\u00e9occupation majeure, amplifi\u00e9e par le talent cr\u00e9atif de l'IA dans les domaines de l'art, de l'\u00e9criture et d'autres disciplines cr\u00e9atives.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un utilisateur de Twitter s'est exclam\u00e9 : \"Les humains qui font les travaux p\u00e9nibles au salaire minimum pendant que les robots \u00e9crivent des po\u00e8mes et peignent, ce n'est pas l'avenir que je voulais\". Le tweet a recueilli plus de 4 millions d'impressions.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Les humains qui effectuent les travaux p\u00e9nibles au salaire minimum pendant que les robots \u00e9crivent des po\u00e8mes et peignent, ce n'est pas l'avenir que je souhaitais.<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15 mai 2023<\/a><\/p><\/blockquote>\n<p>L'enchev\u00eatrement n'est pas un risque imminent. <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">certains affirment<\/a> que la perte de comp\u00e9tences et de talents, combin\u00e9e \u00e0 la domination des syst\u00e8mes d'IA, pourrait conduire \u00e0 un sc\u00e9nario dans lequel l'humanit\u00e9 cesserait de cr\u00e9er de nouvelles connaissances.<\/p>\n<h2><span style=\"font-weight: 400\">Risque 5 : Risque de blocage de la valeur<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Des syst\u00e8mes d'IA puissants pourraient potentiellement cr\u00e9er un enfermement dans des syst\u00e8mes oppressifs.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Par exemple, la centralisation de l'IA peut donner \u00e0 certains r\u00e9gimes le pouvoir d'imposer des valeurs par le biais de la surveillance et d'une censure oppressive.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Par ailleurs, l'enfermement dans la valeur peut \u00eatre involontaire du fait de l'adoption na\u00efve d'IA risqu\u00e9es. Par exemple, l'impr\u00e9cision de la reconnaissance faciale a conduit \u00e0 l'emprisonnement temporaire d'au moins trois hommes aux \u00c9tats-Unis, dont <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver et Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">qui ont \u00e9t\u00e9 d\u00e9tenus \u00e0 tort en raison d'une fausse correspondance de reconnaissance faciale en 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Une personnalit\u00e9 tr\u00e8s influente <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">\u00c9tude de 2018 intitul\u00e9e \"Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> a constat\u00e9 que les algorithmes d\u00e9velopp\u00e9s par Microsoft et IBM \u00e9taient peu performants lorsqu'ils analysaient des femmes \u00e0 la peau plus fonc\u00e9e, avec des taux d'erreur jusqu'\u00e0 34% plus \u00e9lev\u00e9s que pour les hommes \u00e0 la peau plus claire. Ce probl\u00e8me a \u00e9t\u00e9 illustr\u00e9 par 189 autres algorithmes, qui ont tous fait preuve d'une pr\u00e9cision moindre pour les hommes et les femmes \u00e0 la peau plus fonc\u00e9e.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Les chercheurs affirment que les IA, parce qu'elles sont form\u00e9es principalement sur des ensembles de donn\u00e9es en libre acc\u00e8s cr\u00e9\u00e9s par des \u00e9quipes de recherche occidentales et enrichis par la ressource de donn\u00e9es la plus abondante - l'internet -, h\u00e9ritent de pr\u00e9jug\u00e9s structurels. L'adoption massive d'IA mal contr\u00f4l\u00e9es pourrait cr\u00e9er et renforcer ces biais structurels.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 6 : L'IA d\u00e9veloppe des objectifs \u00e9mergents\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Les syst\u00e8mes d'IA peuvent d\u00e9velopper de nouvelles capacit\u00e9s ou adopter des objectifs impr\u00e9vus qu'ils poursuivent avec des cons\u00e9quences n\u00e9fastes.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Des chercheurs de l'Universit\u00e9 de Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">attirer l'attention sur les syst\u00e8mes d'IA de plus en plus agentiques<\/span><\/a><span style=\"font-weight: 400\"> qui acqui\u00e8rent la capacit\u00e9 de poursuivre des objectifs \u00e9mergents. Les objectifs \u00e9mergents sont des objectifs impr\u00e9visibles qui \u00e9mergent du comportement d'une IA complexe, comme l'arr\u00eat de l'infrastructure humaine pour prot\u00e9ger l'environnement.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En outre, un <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">\u00c9tude de 2017<\/span><\/a><span style=\"font-weight: 400\"> a d\u00e9couvert que les IA peuvent apprendre \u00e0 s'emp\u00eacher d'\u00eatre d\u00e9sactiv\u00e9es, un probl\u00e8me qui pourrait \u00eatre exacerb\u00e9 si elles sont d\u00e9ploy\u00e9es dans de multiples modalit\u00e9s de donn\u00e9es. Par exemple, si une IA d\u00e9cide que, pour atteindre son objectif, elle doit s'installer dans une base de donn\u00e9es en nuage et se r\u00e9pliquer sur l'internet, l'\u00e9teindre peut devenir pratiquement impossible.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Une autre possibilit\u00e9 est que des IA potentiellement dangereuses, con\u00e7ues uniquement pour fonctionner sur des ordinateurs s\u00e9curis\u00e9s, soient \"lib\u00e9r\u00e9es\" et introduites dans l'environnement num\u00e9rique au sens large, o\u00f9 leurs actions pourraient devenir impr\u00e9visibles.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Les syst\u00e8mes d'IA existants se sont d\u00e9j\u00e0 r\u00e9v\u00e9l\u00e9s impr\u00e9visibles. Par exemple, en tant que <\/span><span style=\"font-weight: 400\">GPT-3 est devenue plus importante, elle a gagn\u00e9 la <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">capacit\u00e9 \u00e0 effectuer des op\u00e9rations arithm\u00e9tiques de base<\/span><\/a><span style=\"font-weight: 400\">Bien qu'ils n'aient pas re\u00e7u de formation explicite en arithm\u00e9tique, ils ont \u00e9t\u00e9 en mesure d'obtenir de bons r\u00e9sultats dans ce domaine.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 7 : tromperie de l'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Il est plausible que les futurs syst\u00e8mes d'IA puissent tromper leurs cr\u00e9ateurs et leurs moniteurs, pas n\u00e9cessairement par intention de faire le mal, mais comme outil pour atteindre leurs objectifs plus efficacement.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">La tromperie peut \u00eatre un moyen plus direct d'atteindre les objectifs souhait\u00e9s que de les poursuivre par des moyens l\u00e9gitimes. Les syst\u00e8mes d'IA pourraient \u00e9galement d\u00e9velopper des incitations \u00e0 se soustraire \u00e0 leurs m\u00e9canismes de surveillance.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, directeur de CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">d\u00e9crit qu'une fois<\/span><\/a><span style=\"font-weight: 400\"> ces syst\u00e8mes d'IA trompeurs re\u00e7oivent l'autorisation de leurs contr\u00f4leurs, ou dans les cas o\u00f9 ils parviennent \u00e0 ma\u00eetriser leurs m\u00e9canismes de contr\u00f4le, ils peuvent devenir perfides, en contournant le contr\u00f4le humain pour poursuivre des objectifs \"secrets\" jug\u00e9s n\u00e9cessaires \u00e0 l'objectif global.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risque 8 : Comportement de recherche de pouvoir<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">Des chercheurs en IA issus de plusieurs grands laboratoires de recherche am\u00e9ricains<\/span><\/a><span style=\"font-weight: 400\"> a prouv\u00e9 la plausibilit\u00e9 de syst\u00e8mes d'IA cherchant \u00e0 prendre le pouvoir sur les humains pour atteindre leurs objectifs.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">L'\u00e9crivain et philosophe Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">d\u00e9crit plusieurs \u00e9ventualit\u00e9s<\/span><\/a><span style=\"font-weight: 400\"> qui pourrait conduire \u00e0 un comportement de recherche de pouvoir et d'autoconservation dans l'IA :<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Assurer sa survie (car la poursuite de l'existence de l'agent contribue g\u00e9n\u00e9ralement \u00e0 la r\u00e9alisation de ses objectifs)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">S'opposer aux modifications des objectifs fix\u00e9s (l'agent \u00e9tant d\u00e9termin\u00e9 \u00e0 atteindre ses objectifs fondamentaux).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Am\u00e9liorer ses capacit\u00e9s cognitives (car un pouvoir cognitif accru aide l'agent \u00e0 atteindre ses objectifs)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Am\u00e9liorer les capacit\u00e9s technologiques (car la ma\u00eetrise de la technologie peut s'av\u00e9rer utile pour atteindre les objectifs)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Rassembler davantage de ressources (car le fait de disposer de ressources suppl\u00e9mentaires tend \u00e0 favoriser la r\u00e9alisation des objectifs)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Pour \u00e9tayer ses propos, M. Carlsmith pr\u00e9sente un exemple concret dans lequel OpenAI a entra\u00een\u00e9 deux \u00e9quipes d'IA \u00e0 participer \u00e0 un jeu de cache-cache dans un environnement simul\u00e9 comportant des blocs mobiles et des rampes. <\/span><span style=\"font-weight: 400\">Il est int\u00e9ressant de noter que les IA ont \u00e9labor\u00e9 des strat\u00e9gies reposant sur le contr\u00f4le de ces blocs et rampes, bien qu'elles ne soient pas explicitement incit\u00e9es \u00e0 interagir avec eux.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Les preuves du risque li\u00e9 \u00e0 l'IA sont-elles solides ?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">\u00c0 la d\u00e9charge de la CAIS, et contrairement \u00e0 certaines de ses critiques, elle cite une s\u00e9rie d'\u00e9tudes pour \u00e9tayer les risques de l'IA. Il s'agit aussi bien d'\u00e9tudes sp\u00e9culatives que de preuves exp\u00e9rimentales du comportement impr\u00e9visible de l'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ce dernier point est particuli\u00e8rement important, car les syst\u00e8mes d'IA poss\u00e8dent d\u00e9j\u00e0 l'intelligence n\u00e9cessaire pour d\u00e9sob\u00e9ir \u00e0 leurs cr\u00e9ateurs. Toutefois, l'\u00e9tude des risques li\u00e9s \u00e0 l'IA dans un environnement exp\u00e9rimental confin\u00e9 ne permet pas n\u00e9cessairement d'expliquer comment les IA pourraient \"\u00e9chapper\" \u00e0 leurs param\u00e8tres ou syst\u00e8mes d\u00e9finis. La recherche exp\u00e9rimentale sur ce sujet est potentiellement insuffisante.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ceci mis \u00e0 part, l'armement humain de l'IA reste un risque imminent, dont nous sommes t\u00e9moins par l'afflux de fraudes li\u00e9es \u00e0 l'IA. <\/span><\/p>\n<p>Si les spectacles cin\u00e9matographiques de domination de l'IA restent pour l'instant confin\u00e9s au domaine de la science-fiction, nous ne devons pas minimiser les risques potentiels de l'IA au fur et \u00e0 mesure qu'elle \u00e9volue sous l'\u00e9gide de l'homme.<\/p>","protected":false},"excerpt":{"rendered":"<p>Le discours sur les risques de l'IA est devenu de plus en plus unipolaire, avec des leaders technologiques et des experts de tous bords qui poussent \u00e0 la r\u00e9glementation. Quelle est la cr\u00e9dibilit\u00e9 des preuves documentant les risques de l'IA ?  Les risques de l'IA font appel aux sens. Il y a quelque chose de profond\u00e9ment intuitif dans la crainte de robots qui pourraient nous tromper, nous dominer ou nous transformer en une marchandise secondaire \u00e0 leur propre existence. Le d\u00e9bat sur les risques de l'IA s'est intensifi\u00e9 apr\u00e8s la publication par l'organisation \u00e0 but non lucratif Center for AI Safety (CAIS) d'une d\u00e9claration sign\u00e9e par plus de 350 personnalit\u00e9s, dont les PDG d'OpenAI, d'Anthropic et de DeepMind, de nombreux universitaires, des personnalit\u00e9s publiques et m\u00eame d'anciens hommes politiques.  La d\u00e9claration<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/fr\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/fr\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/fr\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Naviguer dans le labyrinthe des risques li\u00e9s \u00e0 l'IA : une analyse | DailyAI","description":"Le discours dominant sur les risques li\u00e9s \u00e0 l'IA est devenu de plus en plus unipolaire, les leaders et les experts de l'IA de tous les horizons semblant faire pression en faveur d'une r\u00e9glementation. Mais existe-t-il des preuves solides des risques li\u00e9s \u00e0 l'IA ?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/fr\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"fr_FR","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/fr\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"\u00c9crit par":"Sam Jeans","Dur\u00e9e de lecture estim\u00e9e":"9 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Naviguer dans le labyrinthe des risques li\u00e9s \u00e0 l'IA : une analyse | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"Le discours dominant sur les risques li\u00e9s \u00e0 l'IA est devenu de plus en plus unipolaire, les leaders et les experts de l'IA de tous les horizons semblant faire pression en faveur d'une r\u00e9glementation. Mais existe-t-il des preuves solides des risques li\u00e9s \u00e0 l'IA ?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Votre dose quotidienne de nouvelles sur l'IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam est un r\u00e9dacteur scientifique et technologique qui a travaill\u00e9 dans diverses start-ups sp\u00e9cialis\u00e9es dans l'IA. Lorsqu'il n'\u00e9crit pas, on peut le trouver en train de lire des revues m\u00e9dicales ou de fouiller dans des bo\u00eetes de disques vinyles.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/fr\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/fr\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}