Un rapport commandé par le gouvernement américain indique que de nouvelles mesures et politiques de sécurité en matière d'IA sont nécessaires pour prévenir une "menace d'extinction de l'espèce humaine".
Le rapport, disponible sur demande, a été rédigé par Gladstone AI, une société créée en 2022 et chargée de conseiller les services du gouvernement américain sur les opportunités et les risques liés à l'IA. Le rapport, intitulé "An Action Plan to Increase the Safety and Security of Advanced AI" (Plan d'action pour accroître la sûreté et la sécurité de l'IA avancée), a nécessité un an de travail et a été financé à hauteur de $250 000 euros par le gouvernement fédéral.
Le rapport se concentre sur les risques catastrophiques liés à l'IA avancée et propose un plan d'action complet pour les atténuer. Les auteurs ne partagent manifestement pas le point de vue de Yann LeCun, plus enclin au laisser-faire, sur les menaces liées à l'IA.
Le rapport indique que "l'essor de l'IA avancée et de l'AGI [intelligence générale artificielle] pourrait déstabiliser la sécurité mondiale d'une manière qui rappellerait l'introduction des armes nucléaires".
Les deux principales catégories de risques qu'il soulève sont la militarisation intentionnelle de l'IA et les conséquences involontaires d'une IA malveillante.
Pour éviter que cela ne se produise, le rapport propose un plan d'action composé de cinq lignes d'effort que le gouvernement américain doit mettre en place.
Voici la version courte :
LOE1 - Créer un observatoire de l'IA pour mieux surveiller le paysage de l'IA. Créer un groupe de travail chargé d'établir des règles pour un développement et une adoption responsables de l'IA. Utiliser les restrictions de la chaîne d'approvisionnement pour inciter les acteurs internationaux de l'industrie de l'IA à se conformer aux règles.
LOE2 - Améliorer la préparation à la réponse aux incidents liés à l'IA avancée. Coordonner les groupes de travail interagences, l'éducation gouvernementale à l'IA, le cadre d'alerte précoce pour la détection des menaces émergentes liées à l'IA et les plans d'urgence fondés sur des scénarios.
LOE3 - Les laboratoires d'IA se concentrent davantage sur le développement de l'IA que sur la sécurité de l'IA. Le gouvernement américain doit financer la recherche avancée en matière de sécurité de l'IA, y compris dans le cadre d'un alignement évolutif de l'AGI.
Élaborer des normes de sûreté et de sécurité pour le développement et l'adoption responsables de l'IA.
LOE4 - Créer une "agence de régulation de l'IA dotée de pouvoirs d'élaboration de règles et d'octroi de licences".
Établir un cadre de responsabilité civile et pénale pour prévenir "les conséquences irrémédiables à l'échelle des ADM", y compris "des pouvoirs d'urgence pour permettre une réponse rapide à des menaces qui évoluent rapidement".
LOE5 - Établir un régime de sauvegarde de l'IA dans le droit international et sécuriser la chaîne d'approvisionnement. Obtenir un "consensus international" sur les risques liés à l'IA grâce à un traité sur l'IA appliqué par les Nations unies ou une "agence internationale de l'IA".
En résumé, l'IA pourrait être très dangereuse et nous avons donc besoin d'un grand nombre de lois pour la contrôler.
Le rapport indique que les modèles avancés à source ouverte sont une mauvaise idée et que le gouvernement américain devrait envisager de rendre illégale la diffusion des poids des modèles d'IA sous peine d'emprisonnement.
Si cela vous semble un peu alarmiste et maladroit, vous n'êtes pas le seul. Le rapport a été critiqué pour son manque de rigueur scientifique.
au cas où vous vous demanderiez s'il faut prendre au sérieux ce récent rapport pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12 mars 2024
Les défenseurs des logiciels libres, comme William Falcon, PDG de Lightning AI, ont particulièrement critiqué les déclarations générales sur les dangers des modèles ouverts.
Farenheight 451 mais pour les poids des modèles...
Selon TIME, l'IA open source provoquera un "événement de niveau d'extinction pour les humains" 🙄
tout d'abord, cette affirmation est très ridicule. mais si vous voulez vraiment mettre votre chapeau d'étain, l'IA de source proche est plus susceptible d'être à l'origine de ce phénomènehttps://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- William Falcon ⚡️ (@_willfalcon) 12 mars 2024
La vérité sur les risques que l'IA avancée fait peser sur l'humanité se situe probablement quelque part entre "Nous allons tous mourir !" et "Il n'y a pas lieu de s'inquiéter".
Page 33 d'un Enquête sur l'IA mentionnée dans le rapport donne quelques exemples intéressants de la manière dont les modèles d'IA jouent avec le système et trompent les opérateurs pour atteindre l'objectif qu'ils sont censés optimiser.
Lorsque des modèles d'IA exploitent déjà des failles pour atteindre un objectif, il est difficile d'écarter la possibilité que de futurs modèles d'IA superintelligents fassent de même. Et à quel prix ?
Vous pouvez lire le résumé de l'étude rapport ici.