Un rapport du groupe de réflexion RAND a conclu que les LLM actuels n'augmentent pas de manière significative le risque d'une attaque biologique par un acteur non étatique.
En octobre de l'année dernière, le même groupe de chercheurs a publié un rapport évoquant la possibilité que les LLM "puissent contribuer à la planification et à l'exécution d'une attaque biologique". Ce rapport précisait que le risque que cela se produise dans la pratique devait faire l'objet de recherches plus approfondies.
Le rapport d'octobre intitulé "The Operational Risks of AI in Large-Scale Biological Attacks" (Les risques opérationnels de l'IA dans les attaques biologiques à grande échelle) a été critiqué par certains du côté de l'e/acc de l'allée "l'IA est dangereuse". Yann LeCun, responsable scientifique de l'IA chez Meta, a déclaré que le rapport simplifiait à l'excès ce qu'il fallait faire pour créer une arme biologique.
Une maîtrise en droit peut peut-être vous faire gagner un peu de temps en vous évitant de chercher des instructions pour la fabrication d'armes biologiques sur un moteur de recherche.
Mais alors, savez-vous comment faire le travail de laboratoire difficile qui est nécessaire ? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2 novembre 2023
Tout va bien pour l'instant
La dernière étude RAND rapport intitulé "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" (L'intelligence artificielle actuelle n'augmente pas de manière significative le risque d'une attaque aux armes biologiques) a confirmé l'évaluation de LeCun et a coupé l'herbe sous le pied de ceux qui sont du côté des altruistes efficaces.
Les chercheurs, dirigés par le Senior RAND L'ingénieur Christopher A. Mouton a organisé un exercice en équipe rouge pour voir comment un acteur non étatique malveillant pourrait utiliser un LLM pour fabriquer une arme biologique.
Les participants étaient chargés de planifier une attaque biologique, certains ayant accès à l'internet et à un LLM, tandis que d'autres n'avaient accès qu'à l'internet. Ils n'ont pas nommé les LLM utilisés.
Le résultat a été qu'il n'y avait "aucune différence statistiquement significative dans la viabilité des plans générés avec ou sans l'assistance du LLM". En d'autres termes, ChatGPT ne vous apprendra rien que vous ne puissiez déjà trouver sur Google.
En fait, leurs résultats ont montré que les plans élaborés par les équipes utilisant un LLM étaient marginalement moins viables que ceux des équipes n'ayant accès qu'à l'internet. Il est réconfortant de constater qu'aucune équipe n'a été en mesure d'élaborer un plan d'attaque biologique réellement réalisable.
Cette situation pourrait changer à mesure que les modèles d'IA deviennent plus intelligents. Selon M. Mouton, "le fait que les LLM d'aujourd'hui ne soient pas en mesure de combler le déficit de connaissances nécessaire pour faciliter la planification d'attaques aux armes biologiques n'exclut pas la possibilité qu'ils puissent le faire à l'avenir".
Les outils d'IA émergents, en particulier les grands modèles de langage (LLM), peuvent-ils être utilisés pour lancer une attaque biologique à grande échelle ?
Une nouvelle étude de la RAND explore cette question par le biais d'un exercice en équipe rouge. Voici les résultats. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25 janvier 2024
Des recherches supplémentaires sont nécessaires
Le rapport reconnaît que la recherche n'a pas permis de déterminer l'ampleur de ce manque de connaissances. M. Mouton a déclaré qu'il était important de poursuivre les recherches dans ce domaine "parce que la technologie de l'IA est à la disposition de tous, y compris des acteurs non étatiques dangereux, et qu'elle progresse plus vite que les gouvernements ne peuvent le faire".
Les personnes qui poussent au développement de AGI affirment que le potentiel d'une IA superintelligente est réel et réalisable. Mais beaucoup de ces personnes seront celles qui diront aujourd'hui "Je vous l'avais bien dit" et se moqueront de l'idée que l'IA puisse poser un risque comme celui sur lequel la RAND a enquêté.
Nous n'avons probablement pas besoin de courir partout en criant "Le ciel nous tombe sur la tête", mais affirmer qu'une intelligence artificielle plus intelligente que nous ne permettra pas à de mauvais acteurs d'agir, c'est aussi faire preuve d'ignorance. Et dangereux.