Le Congrès s'inquiète de l'influence de la RAND sur l'organisme chargé de la sécurité de l'IA

27 décembre 2023

Le décret signé par le président Biden en octobre a chargé le National Institute of Standards and Technology (NIST) d'étudier la manière de tester et d'analyser la sécurité des modèles d'IA. L'influence de la RAND Corporation sur le NIST fait l'objet d'un examen minutieux.

La RAND est un groupe de réflexion influent qui entretient des liens étroits avec des milliardaires de la technologie et des acteurs de l'IA alignés sur le mouvement de l'"altruisme efficace". On a récemment appris que La RAND a joué un rôle consultatif important dans l'élaboration du décret de M. Biden sur la sécurité de l'IA.

La commission de la science, de l'espace et de la technologie du Congrès américain a fait part de son inquiétude dans une lettre sur la manière dont le NIST s'acquitte de son mandat et sur la manière dont les recherches menées par des groupes tels que la RAND peuvent influencer ses travaux.

La lettre, adressée au NIST, indique que le comité est "préoccupé par la manière dont l'AISI financera des organisations extérieures et par la transparence de ces subventions".

Qui conseille l'AISI ?

Le NIST a créé l'Artificial Intelligence Safety Institute (AISI) et va probablement sous-traiter une grande partie des recherches qu'il doit mener sur la sécurité de l'IA. À qui confiera-t-il ces recherches ? Le NIST ne le dit pas, mais deux groupes auraient été engagés par l'institut.

La lettre de la commission ne mentionne pas nommément RAND, mais une référence à un rapport du groupe de réflexion montre clairement qu'elle craint que RAND ne continue à exercer son influence sur la réglementation de l'IA.

La lettre indique que "les organisations soulignent régulièrement les avantages ou les risques spéculatifs importants des systèmes d'IA, mais ne fournissent pas de preuves de leurs affirmations, produisent des recherches non reproductibles, se cachent derrière le secret, utilisent des méthodes d'évaluation qui manquent de validité conceptuelle ou citent des recherches qui n'ont pas été soumises à des processus d'examen solides, tels que l'examen par les pairs universitaires".

Pour illustrer son propos, le document renvoie à une étude de la RAND Corp. intitulée "The Operational Risks of AI in Large-Scale Biological Attacks" (Les risques opérationnels de l'IA dans les attaques biologiques à grande échelle). Ce rapport conclut que les LLM "pourraient contribuer à la planification et à l'exécution d'une attaque biologique".

Quel sera l'impact sur la réglementation de l'IA ?

La motivation qui sous-tend l'alarmisme peu subtil de la RAND à l'égard de l'IA apparaît plus clairement lorsque l'on suit l'argent. La RAND a reçu $15,5 millions d'euros de subventions de l'Open Philanthropy, un organisme de financement axé sur le soutien à la recherche sur l'IA. altruisme efficace causes.

Les partisans de l'altruisme efficace sont parmi les plus fervents défenseurs de l'arrêt ou du ralentissement du développement de l'IA. Si la RAND est l'une des deux organisations qui auraient été chargées d'effectuer des recherches pour l'AISI, nous pouvons nous attendre à une réglementation plus stricte de l'IA dans un avenir proche.

La lettre de la commission précise : "En mettant en œuvre l'AISI, nous attendons du NIST qu'il impose aux bénéficiaires de fonds fédéraux destinés à la recherche sur la sécurité de l'IA les mêmes directives rigoureuses en matière de qualité scientifique et méthodologique que celles qui caractérisent l'ensemble de l'entreprise de recherche fédérale".

En d'autres termes, ce n'est pas parce qu'un organisme comme la RAND affirme que l'IA représente un risque existentiel qu'il en est ainsi.

Le NIST invitera-t-il les partisans de l'accélération de l'IA, comme Yann LeCun, vice-président et responsable scientifique de l'IA chez Meta, à lui faire part de leurs commentaires ? Dans une récente interview accordée à Wired, Yann LeCun a déclaré : "Chaque fois que la technologie progresse, vous ne pouvez pas empêcher les méchants d'y avoir accès. Dans ce cas, c'est ma bonne IA contre votre mauvaise IA. Pour garder une longueur d'avance, il faut progresser plus vite. Le moyen de progresser plus rapidement est d'ouvrir la recherche, afin que la communauté dans son ensemble y contribue.

Le travail du NIST est fortement axé sur la réalisation de mesures précises. Le choix des conseillers fera inévitablement pencher la balance de la réglementation de l'IA.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation