Trois débats sur l'industrie de l'IA : Intelligence, progrès et sécurité

22 mars 2024

Ce célèbre dicton : "Plus nous en savons, plus nous en ignorons" s'applique certainement à l'IA.

Plus nous en apprenons sur l'IA, moins nous avons de certitudes.

Les experts et les chefs de file de l'industrie sont souvent en désaccord sur la situation actuelle et future de l'IA. Ils ne parviennent pas à se mettre d'accord sur des concepts apparemment élémentaires tels que l'intelligence de la machine, la conscience et la sécurité.

Les machines dépasseront-elles un jour l'intelligence de leurs créateurs humains ? Les progrès de l'IA s'accélèrent-ils vers une singularité technologique ou sommes-nous à l'aube d'un hiver de l'IA ?

Et peut-être plus important encore, comment pouvons-nous garantir que le développement de l'IA reste sûr et bénéfique lorsque les experts ne parviennent pas à se mettre d'accord sur ce que l'avenir nous réserve ?

L'IA est plongée dans un brouillard d'incertitude. Le mieux que nous puissions faire est d'explorer les perspectives et de parvenir à des points de vue éclairés mais fluides sur un secteur en constante évolution.

Premier débat : L'intelligence de l'IA

Chaque nouvelle génération de modèles d'intelligence artificielle générative relance le débat sur l'intelligence des machines.

Elon Musk a récemment alimenté le débat sur l'intelligence de l'IA en déclarant : "L'IA sera probablement plus intelligente que n'importe quel humain l'année prochaine. En 2029, l'IA sera probablement plus intelligente que tous les humains réunis."

Si c'était le cas, nous aurions des systèmes d'IA capables d'apprendre à conduire une voiture en 20 heures de pratique, comme n'importe quel jeune de 17 ans. Mais nous ne disposons toujours pas d'une conduite autonome totalement fiable, même si nous (vous) disposons de millions d'heures de données d'entraînement *étiquetées*."

Cette conversation n'est qu'un microcosme d'un vide ambigu dans l'opinion des experts et des leaders de l'IA.

C'est une conversation qui conduit à une spirale d'interprétations sans fin avec peu de consensuscomme le démontrent les opinions très contrastées de technologues influents au cours de l'année écoulée (informations provenant de Améliorer les nouvelles):

  • Geoffrey Hinton: "L'intelligence numérique" pourrait nous dépasser d'ici "5 à 20 ans".
  • Yann LeCun: La société a plus de chances d'avoir une IA de niveau "chat" ou "chien" des années avant l'IA de niveau humain.
  • Demis Hassabis: Nous pourrions parvenir à "quelque chose qui ressemble à l'AGI ou à l'AGI au cours de la prochaine décennie".
  • Gary Marcus: "[N]ous finirons par atteindre l'AGI... et très probablement avant la fin de ce siècle."
  • Geoffrey Hinton: "L'IA actuelle, telle que GPT-4, "éclipse une personne" en matière de connaissances générales et pourrait bientôt le faire également en matière de raisonnement.
  • Geoffrey Hinton: L'IA est "très proche de nous aujourd'hui" et sera "beaucoup plus intelligente que nous à l'avenir".
  • Elon Musk: "Nous aurons, pour la première fois, quelque chose qui sera plus intelligent que l'homme le plus intelligent".
  • Elon Musk: "Je serais surpris si nous n'avions pas l'intelligence artificielle d'ici [2029]."
  • Sam Altman: "[N]ous pourrions parvenir à un véritable AGI au cours de la prochaine décennie."
  • Yoshua Bengio: Les "IA surhumaines" verront le jour "entre quelques années et quelques décennies".
  • Dario Amodei: "L'IA de niveau humain pourrait apparaître dans "deux ou trois ans".
  • Sam Altman: L'IA pourrait dépasser le "niveau de compétence des experts" dans la plupart des domaines d'ici dix ans.
  • Gary Marcus: "Je ne pense pas que nous soyons si proches de machines plus intelligentes que nous."

Dans le débat sur l'intelligence des machines, aucune partie n'a raison ou tort de manière univoque. Tout dépend de l'interprétation subjective que chacun fait de l'intelligence et de la façon dont les systèmes d'IA se mesurent à cette définition.

Les pessimistes peuvent mettre en avant les risques potentiels et les conséquences involontaires de l'IA, en insistant sur la nécessité de faire preuve de prudence. Ils affirment qu'à mesure que les systèmes d'IA deviennent plus autonomes et plus puissants, ils pourraient développer des objectifs et des comportements non conformes aux valeurs humaines, ce qui entraînerait des résultats catastrophiques.

À l'inverse, les optimistes peuvent se concentrer sur le potentiel de transformation de l'IA, envisageant un avenir où les machines travailleront aux côtés des humains pour résoudre des problèmes complexes et stimuler l'innovation. Ils peuvent minimiser les risques, arguant que les inquiétudes concernant l'IA superintelligente sont largement hypothétiques et que les avantages l'emportent sur les risques.

Le nœud du problème réside dans la difficulté de définir et de quantifier l'intelligence, en particulier lorsqu'il s'agit de comparer des entités aussi disparates que les humains et les machines.

Par exemple, un La mouche possède des circuits neuronaux avancés et peut échapper à nos tentatives de l'attraper ou de l'assommer, nous surpassant ainsi dans ce domaine étroit. Ce type de comparaisons est potentiellement illimité.

Choisissez vos exemples d'intelligence, et tout le monde peut avoir raison ou tort.

Deuxième débat : l'IA accélère-t-elle ou ralentit-elle ?

Les progrès de l'IA sont-ils appelés à s'accélérer ou à plafonner et à ralentir ?

Certains affirment que nous sommes au cœur d'une révolution de l'IA et que les percées se succèdent à un rythme effréné. D'autres affirment que les progrès ont atteint un plateau et que le domaine est confronté à des défis majeurs qui pourraient ralentir l'innovation dans les années à venir.

L'IA générative est l'aboutissement de décennies de recherche et de milliards de dollars de financement. Lorsque ChatGPT a débarqué en 2022, la technologie avait déjà atteint un niveau élevé dans les environnements de recherche, plaçant la barre haut et jetant la société dans le grand bain.

Le battage médiatique qui en a résulté a également permis de mobiliser des fonds considérables pour les start-ups spécialisées dans l'IA, d'Anthropic à Inflection et de Stability AI à MidJourney.

Cette évolution, combinée aux efforts internes considérables déployés par les vétérans de la Silicon Valley (Meta, Google, Amazon, Nvidia et Microsoft), a entraîné une prolifération rapide des outils d'IA. Le GPT-3 s'est rapidement transformé en un poids lourd, le GPT-4. Pendant ce temps, des concurrents tels que les LLM comme Claude 3 Opus, Grok de xAI et Mistralet les modèles à source ouverte de Meta se sont également imposés.

Certains experts et technologues, tels que Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis et Elon Musk, estiment que l'accélération de l'IA ne fait que commencer.

Musk a déclaré que l'IA générative revenait à "réveiller le démon", tandis qu'Altman a déclaré que le contrôle de l'esprit par l'IA était imminent (ce que Musk a prouvé avec les progrès récents de Neuralink ; voir ci-dessous comment un homme a joué une partie d'échecs par la seule force de la pensée).

D'autre part, des experts tels que Gary Marcus et Yann LeCun estiment que nous nous heurtons à des murs, l'IA générative étant confrontée à une période d'introspection ou à un "hiver".

Cela résulterait d'obstacles pratiques, tels que l'augmentation des coûts de l'énergie, les limites du calcul par force brute, la réglementation et les pénuries de matériaux.

L'IA générative est coûteuse à développer et à entretenir, et la monétisation n'est pas simple. Les entreprises technologiques doivent trouver des moyens de maintenir l'inertie afin que l'argent continue d'affluer dans le secteur.

Troisième débat : Sécurité de l'IA

Les discussions sur l'intelligence et les progrès de l'IA ont également des implications pour la sécurité de l'IA. Si nous ne parvenons pas à nous mettre d'accord sur ce qui constitue l'intelligence ou sur la manière de la mesurer, comment pouvons-nous garantir que les systèmes d'IA sont conçus et déployés en toute sécurité ?

En l'absence d'une compréhension commune de l'intelligence, il est difficile d'établir des mesures de sécurité appropriées et des lignes directrices éthiques pour le développement de l'IA.

Sous-estimer l'intelligence de l'IA revient à sous-estimer la nécessité de contrôles et de réglementations en matière de sécurité de l'IA.

À l'inverse, surestimer ou exagérer les capacités de l'IA fausse les perceptions et risque d'entraîner une surréglementation. Cela pourrait cloisonner le pouvoir dans les grandes entreprises technologiques, qui ont fait la preuve de leur influence en matière de lobbying et d'influence sur la législation. Et lorsqu'elles commettent une erreur, elles peuvent payer les amendes.

L'année dernière, X débats prolongés Le débat sur la sécurité de l'IA, qui a réuni Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk et de nombreuses autres personnalités de la communauté de l'IA, a mis en lumière les profondes divisions qui existent dans ce domaine. Les grandes entreprises technologiques ont travaillé d'arrache-pied pour s'autoréguler, en créant des "lignes directrices volontaires" dont l'efficacité est douteuse.

Les critiques affirment également que la réglementation permet aux grandes entreprises technologiques de renforcer les structures du marchéIls peuvent ainsi se débarrasser des perturbateurs et définir les règles du jeu du secteur à leur convenance.

De ce côté du débat, M. LeCun affirme que les risques existentiels de l'IA ont été exagérés et qu'ils sont utilisés comme un écran de fumée par les grandes entreprises technologiques pour faire pression en faveur de réglementations qui étoufferaient la concurrence et consolideraient le contrôle.

M. LeCun et ses partisans soulignent également que les risques immédiats de l'IA, tels que la désinformation, les "deep fakes" et les préjugés, nuisent déjà aux personnes et requièrent une attention urgente.

D'autre part, Hinton, Bengio, Hassabis et Musk ont tiré la sonnette d'alarme sur les risques existentiels potentiels de l'IA.

Bengio, LeCun et Hinton, souvent appelés les "parrains de l'IA" pour avoir développé les réseaux neuronaux, l'apprentissage profond et d'autres techniques d'IA dans les années 90 et au début des années 2000, restent influents aujourd'hui. Hinton et Bengio, dont les points de vue se rejoignent généralement, ont participé à une rare réunion entre des chercheurs américains et chinois au sein du Dialogue international sur la sécurité de l'IA à Pékin.

Le point culminant de la réunion a été dans une déclaration : "Au plus profond de la guerre froide, la coordination internationale des scientifiques et des gouvernements a permis d'éviter une catastrophe thermonucléaire. L'humanité doit à nouveau se coordonner pour éviter une catastrophe qui pourrait résulter d'une technologie sans précédent".

Il faut dire que Bengio et Hinton ne sont pas manifestement alignés financièrement sur Big Tech et n'ont aucune raison de surestimer les risques liés à l'IA.

M. Hinton a lui-même soulevé ce point lors d'une prise de bec avec M. LeCun et Andrew Ng, ancien cofondateur de Google Brain, en soulignant qu'il avait quitté Google pour s'exprimer librement sur les risques liés à l'IA.

En effet, de nombreux grands scientifiques ont remis en question la sécurité de l'IA au fil des ans, notamment le regretté professionnel Stephen Hawking, qui considérait la technologie comme un risque existentiel.

Ce mélange tourbillonnant d'échanges polémiques laisse peu d'espace pour occuper le terrain intermédiaire, ce qui alimente l'image de l'IA générative en tant que technologie polarisante.

La réglementation de l'IA, quant à elle, a devenir un enjeu géopolitiqueLes États-Unis et la Chine ont tenté de collaborer en matière de sécurité de l'IA malgré l'escalade des tensions dans d'autres départements.

Ainsi, tout comme les experts ne s'accordent pas sur le moment et la manière dont l'IA dépassera les capacités humaines, ils diffèrent également dans leur évaluation des risques et des défis liés au développement de systèmes d'IA sûrs et bénéfiques.

Les débats autour de l'intelligence de l'IA ne sont pas seulement de nature philosophique ou de principe - elles sont aussi une question de gouvernance.

Lorsque les experts ne sont pas du tout d'accord sur les éléments fondamentaux de l'intelligence et de la sécurité de l'IA, la réglementation ne peut espérer servir les intérêts des citoyens.

La création d'un consensus nécessitera des prises de conscience difficiles de la part des experts, des développeurs d'IA, des gouvernements et de la société dans son ensemble.

Toutefois, en plus de nombreux autres défis, pour que l'IA puisse s'orienter vers l'avenir, il faudra que certains leaders et experts de la technologie admettent qu'ils se sont trompés. Et cela ne sera pas facile.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation