La bataille des "parrains de l'IA" : l'IA est-elle risquée ou non ?

2 novembre 2023

Risques liés à l'IA

L'IA est risquée, n'est-ce pas ? C'est ce qu'on nous a dit l'année dernière. Mais tout le monde n'est pas d'accord, y compris certains chercheurs de haut niveau. 

L'X s'est enflammé sur la question de savoir si l'IA pose de véritables risques existentiels. Il ne s'agit pas de désinformation ou de "deep fakes" - bien que cela soit déjà grave - mais de risques comparables aux catastrophes nucléaires et aux pandémies.

Ce débat a été mené par Yann LeCun, sceptique à l'égard des risques liés à l'IA et responsable de l'IA chez Meta, considéré comme l'un des "parrains de l'IA" avec Yoshua Bengio et Geoffrey Hinton. 

Dans la ligne de mire de M. LeCun se trouvent le PDG d'OpenAI, Sam Altman, le PDG de DeepMind, Demis Hassabis, et le PDG d'Anthropic, Dario Amode, que M. LeCun accuse de "lobbying massif de la part des entreprises".

Plus précisément, M. LeCun craint que les grands patrons de la technologie ne multiplient les discussions sur les risques et les abus liés à l'IA afin d'inciter les régulateurs à verrouiller le secteur en leur faveur.

Les grandes entreprises technologiques ont les moyens de faire face à la réglementation, ce qui n'est pas le cas des petites entreprises et des développeurs de logiciels libres. M. LeCun doute également de la vision souvent évoquée d'une "singularité" de l'IA, où la technologie deviendrait soudainement plus intelligente que l'homme, marquant ainsi le début d'une nouvelle ère d'IA superintelligente. 

D'autres, dont M. Altman, ont déclaré qu'ils s'attendaient à ce que le développement de l'IA soit plus granulaire et progressif plutôt que de "décoller" du jour au lendemain.

Selon les arguments de LeCun, les grandes entreprises technologiques peuvent utiliser les risques liés à l'IA à leur avantage, ce qui leur permet de renforcer les structures du marché et d'éliminer la concurrence. Le véritable risque, selon LeCun, est que quelques développeurs d'IA sélectionnés possèdent l'industrie et dictent sa trajectoire. 

Il a souligné la gravité de la situation en déclarant : "Si ces efforts aboutissent, le résultat sera une catastrophe car un petit nombre d'entreprises contrôlera l'IA". Cette déclaration reflète le consensus général dans le monde de la technologie sur le potentiel de transformation de l'IA, assimilant son importance à celle de la puce électronique ou de l'internet.

Les remarques de M. LeCun répondaient à celles du célèbre physicien Max Tegmark, qui avait laissé entendre que M. LeCun ne prenait pas suffisamment au sérieux les risques existentiels de l'IA.

Dans un message public, M. Tegmark a reconnu les efforts déployés par les dirigeants mondiaux pour reconnaître les dangers potentiels de l'IA, en déclarant qu'ils "ne peuvent pas être réfutés uniquement par des remarques désobligeantes et le lobbying des entreprises".

Dans le contexte de la montée en puissance de l'IA, des personnalités comme Altman et Hassabis sont devenues des acteurs incontournables du discours public sur la technologie. Cependant, LeCun leur reproche d'alimenter la peur de l'IA tout en en tirant profit.

En mars, plus d'un millier de leaders de la technologie, dont Elon Musk, Altman et Hassabis, a plaidé en faveur d'une pause dans le développement de l'IA, citant des risques sociétaux et humanitaires importants.

LeCun, cependant, affirme que ces avertissements dramatiques sont un écran de fumée, détournant l'attention de questions immédiates telles que l'exploitation des travailleurs et le vol de données.

M. LeCun appelle à recentrer le débat sur le présent et l'avenir immédiat du développement de l'IA. Il a fait part de ses inquiétudes quant à la disparition potentielle de la communauté de l'IA à code source ouvert si le développement de l'IA est confiné à des entités privées à but lucratif.

Pour M. LeCun, l'enjeu est de taille : "L'alternative, qui se produira inévitablement si l'IA open source est interdite, est qu'un petit nombre d'entreprises de la côte ouest des États-Unis et de la Chine contrôleront la plateforme d'IA et, partant, l'ensemble de l'alimentation numérique de la population", a-t-il averti, invitant à prendre en considération les implications pour la démocratie et la diversité culturelle.

Les soutiens de LeCun

Les arguments de M. LeCun sont bien étayés sur les médias sociaux et font l'objet d'un consensus parmi les commentateurs et les experts du secteur.

Par exemple, Andrew Ng, figure centrale du développement de l'IA et cofondateur de Google Brain, s'est également inquiété du fait que les grandes entreprises technologiques pourraient manipuler le discours sur l'IA afin de dominer le marché.


Dans une interview accordée à l'Australian Financial Review, M. Ng a mis en évidence une tendance des géants de la technologie à amplifier les craintes liées à l'IA, en particulier l'idée qu'elle pourrait conduire à l'extinction de l'humanité. Comme LeCun et d'autres, il suggère que ce discours est utilisé stratégiquement pour inciter à une réglementation plus stricte de l'IA, ce qui entraverait les initiatives à source ouverte et les petits concurrents.

"Il y a certainement de grandes entreprises technologiques qui préféreraient ne pas avoir à essayer de concurrencer l'open source, et elles créent donc la peur que l'IA conduise à l'extinction de l'homme", a expliqué M. Ng. "Les lobbyistes s'en servent comme d'une arme pour défendre une législation qui serait très préjudiciable à la communauté open source.

Plus tôt dans l'annéeDans la foulée, un mémo de Google ayant fait l'objet d'une fuite semble admettre que les grandes entreprises technologiques perdent du terrain au profit des logiciels libres. 

La note précise que "les modèles à source ouverte sont plus rapides, plus personnalisables, plus privés et plus performants. Ils font des choses avec des paramètres $100 et 13B que nous avons du mal à faire avec des paramètres $10M et 540B. Et ils le font en quelques semaines, pas en quelques mois".

L'IA open-source est rapide, non monolithique, privée et, surtout, bon marché. Les grandes entreprises technologiques sont déjà lutter pour la monétisation de l'IALa réglementation de l'industrie de l'IA pour aider les titans à l'emporter est donc logique sur le papier. 

Distraction des menaces immédiates

Ce débat comporte une autre dimension qui va au-delà de l'argent.

Nombreux sont ceux qui ont rappelé que les risques actuels de l'IA, tels que les contrefaçons et les fausses informations extrêmement sophistiquées, sont déjà suffisants pour justifier un long débat et une action rapide. 

Aidan Gomez, éminent chercheur dans le domaine de l'IA et PDG de Cohere, a également souligné le risque de se focaliser trop fortement sur les scénarios catastrophes. 

S'exprimant à la veille de la conférence de presse de cette semaine, le commissaire européen à l'environnement et au développement durable a déclaré Sommet sur la sécurité de l'IADans son rapport, M. Gomez a souligné que les menaces immédiates telles que la désinformation et l'érosion de la confiance sociale sont éclipsées par les discussions sur les risques existentiels à long terme.

"Je pense qu'en termes de risque existentiel et de politique publique, ce n'est pas une conversation productive", a déclaré M. Gomez, soulignant la nécessité de donner la priorité aux risques immédiats.

"En ce qui concerne les politiques publiques et les domaines sur lesquels le secteur public devrait se concentrer, à savoir la réduction des risques pour la population civile, je pense qu'il s'agit d'une distraction par rapport à des risques qui sont beaucoup plus tangibles et immédiats.

M. Gomez souligne l'influence omniprésente de l'IA dans des produits utilisés par des milliards de personnes, et insiste sur la nécessité urgente de s'attaquer aux risques qui touchent activement le public. "Cette technologie est déjà présente dans un milliard de produits utilisés par des milliards de personnes, comme chez Google et d'autres. Cela présente une multitude de nouveaux risques à discuter, dont aucun n'est existentiel, aucun n'est un scénario catastrophe", a-t-il expliqué. 

Il considère la désinformation comme une préoccupation majeure, compte tenu de la capacité des modèles d'IA à créer des médias "pratiquement impossibles à distinguer des textes, des images ou des médias créés par l'homme".

La désinformation est en effet l'ennemi public numéro un en termes de risques liés à l'IA, étant donné que nous avons déjà observé des exemples de contrefaçons profondes déployées dans le cadre d'escroqueries réussies.

Des fausses pistes profondes déployées avant la fin du temps de parole aux élections slovaques ont montré comment ils peuvent affecter la démocratie de manière tangible. 

Yoshua Bengio, Geoffrey Hinton et Elon Musk se joignent au débat

Le "parrain de l'IA", Yoshua Bengio, ainsi qu'une assemblée de plus de 200 leaders technologiques et chercheurs, ont approuvé une lettre ouverte soulignant le besoin critique d'une action immédiate et substantielle.

M. Bengio est aujourd'hui à la tête d'un rapport international dévoilé lors du sommet britannique sur la sécurité de l'IA. Il est convaincu des risques liés à l'IA, tout comme Geoffrey Hinton, ce qui signifie que 2/3 des "parrains de l'IA" sont inquiets à un certain niveau. 


Sur son site web, Bengio a écritJ'ai récemment signé une lettre ouverte demandant de ralentir le développement de systèmes d'IA géants plus puissants que le GPT-4 - ceux qui réussissent actuellement le test de Turing et peuvent donc faire croire à un être humain qu'il converse avec un pair plutôt qu'avec une machine".

Geoffrey Hinton, membre du triumvirat des parrains de l'IA, a quitté Google pour faire part de ses craintes à l'égard de l'IA. Il est allé jusqu'à dire qu'il regrettait son travail en raison de la manière dont l'IA pouvait être utilisée à mauvais escient, déclarant dans une interview : "Je me console avec l'excuse normale : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait".

M. Hinton, comme M. Bengio, est d'avis que l'IA présente de graves risques d'extinction. Il doute également que l'ouverture des modèles puisse soutenir les efforts de sécurité. 

Il a récemment souligné que son choix de quitter Google était en contradiction avec la position critique de LeCun et al. en déclarant sur X : "Andrew Ng prétend que l'idée que l'IA pourrait nous faire disparaître est une conspiration des grandes entreprises technologiques. Une donnée qui ne correspond pas à cette théorie de la conspiration est que j'ai quitté Google pour pouvoir parler librement de cette menace existentielle."

Hinton, Bengio et d'autres chercheurs de premier plan dans le domaine de l'IA, dont l'influent informaticien chinois Andrew Yao, ont récemment a soutenu un document décrire les risques de l'IA.

Selon M. Hinton, "les entreprises prévoient de former des modèles avec des capacités de calcul 100 fois supérieures à celles de l'état actuel de la technique, dans un délai de 18 mois. Personne ne sait quelle sera leur puissance. Et il n'y a pratiquement aucune réglementation sur ce qu'elles pourront faire avec ces modèles".

Ce débat s'éternise et continuera à s'éterniser.

Un utilisateur de X a fait la remarque suivante :


LeCun a un autre antagoniste en la personne d'Elon Musk, qui est rarement absent d'un débat de haut niveau sur les technologies de l'information, surtout lorsqu'il s'agit d'une question qui relève de sa compétence (sans parler de sa plateforme).

Musk a déjà exprimé ses inquiétudes au sujet de l'IA, mais sa position est devenue très imprévisible.

Ces derniers temps, M. Musk a constamment qualifié l'IA de menace existentielle potentielle pour l'humanité, déclarant que développer une IA complexe revenait à "invoquer le démon". Lors du sommet sur la sécurité de l'IA, il a toutefois déclaré qu'il pensait que l'IA aurait des retombées positives nettes. 

Ces derniers mois, M. Musk a critiqué OpenAI, soulignant une déviation par rapport à la mission initiale de l'organisation et exprimant des inquiétudes quant à son orientation "fermée", fortement influencée par Microsoft. 

Musk et LeCun sont largement d'accord dans leurs critiques de l'IA à code source fermé, ce qui montre qu'affirmer les risques de l'IA ne revient pas toujours à dénoncer le code source ouvert.

En ce qui concerne les logiciels libres, voyons ce que Musk choisit de faire avec les produits qu'il a créés. La startup d'IA xAI publie.

Le patron de Google DeepMind répond aux propos alarmistes de LeCun

Le directeur de Google DeepMind, Demis Hassabis, a répondu aux allégations de M. LeCun, accusant l'entreprise de se livrer à un lobbying intensif pour dominer le secteur de l'IA. 

Dans une interview avec CNBCEn outre, M. Hassabis a souligné que l'engagement de DeepMind dans les discussions sur l'IA n'est pas une tentative de "capture réglementaire".

En réponse à ces affirmations, Hassabis a déclaré : "Je ne suis pas du tout d'accord avec la plupart des commentaires de Yann". 

Il a présenté trois grandes catégories de risques associés à l'IA, soulignant l'importance de traiter les problèmes immédiats tels que la désinformation, les "deep fakes" et la partialité, tout en tenant compte de l'utilisation potentiellement abusive de l'IA par des acteurs malveillants et des risques à long terme associés à l'intelligence artificielle générale (AGI). 

Il a préconisé d'entamer des discussions sur la réglementation de l'IA superintelligente le plus tôt possible afin d'éviter des conséquences désastreuses.

Soulignant la nature mondiale de la technologie de l'IA, M. Hassabis a insisté sur la nécessité d'une coopération internationale, y compris avec la Chine, afin d'établir des normes de développement et de réglementation responsables. 

Lui et James Manyika, premier vice-président de Google chargé de la recherche, de la technologie et de la société, ont tous deux exprimé le souhait de voir se dégager un consensus mondial sur l'IA. M. Hassabis a assisté au sommet britannique sur la sécurité de l'IA, où il s'est aligné sur le sentiment des dirigeants mondiaux de mettre l'accent sur la sécurité et la surveillance de l'IA. 

Malgré les tensions technologiques persistantes entre les États-Unis et la Chine et l'hésitation des géants américains de la technologie à s'engager dans des activités commerciales en Chine, M. Hassabis a insisté sur la nécessité de la communication, déclarant : "Je pense que nous devons parler à tout le monde à ce stade".

Existe-t-il un juste milieu ?

Les débats sur les risques potentiels de l'IA et les réponses réglementaires nécessaires atteignent un point critique.

Ces dernières semaines, les "discussions officielles" sur l'IA se sont multipliées, mais la réglementation est encore en cours d'élaboration.

La réglementation américaine et la loi européenne sur l'IA jetteront les premières bases solides de la gouvernance de l'IA. 

LeCun présente des arguments convaincants concernant la monétisation de l'IA face à la concurrence des logiciels libres. De la fuite du mémo de Google aux risques existentiels cohérents mis en avant par les grands patrons de la technologie dans les médias grand public, lui et ses partisans disposent de nombreuses munitions. 

Cependant, l'absence de consensus dépasse les têtes des développeurs d'IA à but lucratif de Microsoft, DeepMind, Anthropic, etc.

Bengio et Hinton sont pour la plupart non affiliés, et feu le professeur Stephen Hawking, par exemple, a déclaré qu'il "pourrait signifier la fin de la race humaine" et pourrait s'avérer être "le pire événement dans l'histoire de notre civilisation". 

Les chercheurs ont démontré la capacité des systèmes d'IA à développer de manière autonome des objectifs émergentsqui peuvent avoir des conséquences catastrophiques si elles ne sont pas correctement gérées. D'autres expériences ont montré que les systèmes d'IA peuvent rechercher activement des ressources, accumuler de l'énergie et prendre des mesures pour éviter d'être arrêtés. 

Il existe des preuves solides des dommages liés à l'IA, mais ces preuves sont-elles proportionnées à la sonnette d'alarme tirée par les grands patrons de l'industrie technologique ?

Et, peut-être plus important encore, peut-on vraiment leur faire confiance pour gérer le secteur de manière éthique pour tous, indépendamment de la présence ou de l'absence de risque ?

Peut-être devrions-nous considérer les actions des grandes entreprises technologiques comme le pari ultime.

L'IA est sans doute risquée, mais quelques entreprises triées sur le volet veulent s'approprier ce risque, le pousser dans ses derniers retranchements et le façonner comme elles l'entendent, à tort ou à raison.

Les grandes entreprises technologiques pourraient charger le jeu de manière à ce que la maison gagne toujours tant qu'elle reste debout. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation