Max Tegmark, professeur au MIT, physicien et cofondateur du Future of Life Institute, s'est inquiété du rythme effréné du développement de l'IA.
Il suggère que la concurrence intense entre les entreprises technologiques rend moins probable une autorégulation solide.
En l'espace d'un an seulement, des acteurs majeurs comme OpenAI et Google ont publié au moins deux générations de modèles d'IA.
Le GPT-4 a représenté une amélioration massive par rapport au GPT-3.5, dépassant de cinq à dix fois son compte de paramètres.
Au début de l'année, M. Tegmark a rédigé une lettre ouverte appelant à une pause de six mois dans le développement de systèmes d'IA avancés.
La lettre a reçu un soutien massif de la part de chefs d'entreprise, d'hommes politiques et de diverses personnalités, avec plus de 30 000 signataires, dont Elon Musk et le cofondateur d'Apple, Steve Wozniak.
La lettre décrivait de manière frappante les dangers potentiels d'un développement débridé de l'IA. Elle exhorte les gouvernements à intervenir si les principaux acteurs de l'IA, tels que Google, OpenAI, Meta et Microsoft, ne parviennent pas à un consensus sur la manière d'exploiter les avantages de l'IA tout en atténuant ses risques.
Le Center for AI Safety (CAIS) a comparé les risques liés à l'IA à une guerre nucléaire.
À la suite de cette première lettre, le CAIS a publié une déclaration soutenue par de nombreux leaders technologiques et universitaires, qui comparait les risques sociétaux posés par l'IA à ceux des pandémies et de la guerre nucléaire.
Les Le communiqué de la CAIS indiqueL'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires.
Cependant, malgré le sentiment que l'autorégulation est nécessaire jusqu'à ce qu'une réglementation entre en vigueur, l'industrie technologique a largement continué au même rythme de progression de l'IA.
M. Tegmark s'est penché sur l'impact de la lettre et sur les raisons pour lesquelles elle n'a pas réussi à stopper le développement de l'IA, déclarant au GuardianJ'ai eu l'impression qu'en privé, de nombreux dirigeants d'entreprise à qui j'ai parlé souhaitaient [une pause], mais qu'ils étaient pris au piège dans cette course vers le bas, les uns contre les autres. Aucune entreprise ne peut donc faire une pause seule.
Toutefois, M. Tegmark a noté que les débats entourant la sensibilisation politique accrue à la sécurité de l'IA s'intensifient, comme en témoignent les auditions du Sénat américain, la première audition de Chuck Schumer et la première audition de la Commission européenne sur la sécurité de l'IA. Forum AI Insightet celle de novembre Sommet mondial sur la sécurité de l'IA au Royaume-Uni.
Pour ce qui est de l'avenir, M. Tegmark a mis en garde contre le fait de considérer le développement d'une "intelligence générale de type divin" comme une menace lointaine, faisant référence à certains membres de la communauté de l'IA qui pensent que sa réalisation pourrait être plus proche que beaucoup ne le prévoient, à savoir l'OpenAI.
M. Tegmark a conclu en soulignant l'importance des normes de sécurité dans le développement de l'IA et a fait part de ses préoccupations concernant les modèles d'IA libres, comme le Llama 2 de Meta.
Établissant un parallèle avec d'autres technologies puissantes, il a mis en garde : "Les technologies dangereuses ne devraient pas être en libre accès, qu'il s'agisse d'armes biologiques ou de logiciels".