Des pirates informatiques tentent de casser les modèles d'IA lors de la conférence DEFCON

15 août 2023

Conférence de piratage DEFCON AI LLM

DEFCON est la plus ancienne et la plus importante conférence annuelle sur le piratage informatique. Cette année, l'accent a été mis sur les attaques simulées (red-teaming) contre les modèles de langage de l'IA afin d'identifier les risques et les problèmes de précision.

En parrainant cet événement, qui s'est tenu le week-end dernier à Las Vegas, la Maison Blanche a montré que le gouvernement américain se préoccupait de la sécurité des modèles de langage de l'IA.

Lors de cet événement, quelque 2 200 hackers se sont affrontés pour faire en sorte que 8 des plus grands LLM du monde donnent des réponses inexactes ou peu sûres à leurs messages. Les modèles de chat IA testés comprenaient Llama 2, Stable Chat, ChatGPT, Bard et d'autres.

Les résultats officiels ne seront publiés qu'en février 2024, ce qui laisse aux éditeurs des modèles un peu de temps pour tenter de corriger les vulnérabilités identifiées lors de l'événement. Mais certains experts sont sceptiques quant à la possibilité de corriger ces vulnérabilités.

Gary McGraw, expert en cybersécurité, a déclaré : "Il est tentant de prétendre que nous pouvons saupoudrer ces systèmes d'une poussière de sécurité magique une fois qu'ils sont construits, les patcher pour qu'ils se soumettent, ou installer un dispositif de sécurité spécial sur le côté".

Christoph Endres, directeur général de la société allemande de cybersécurité Sequire Technology, a présenté un document dans lequel il affirme qu'il est impossible de se défendre contre certaines attaques. "Jusqu'à présent, nous n'avons pas trouvé de mesures d'atténuation efficaces", a-t-il déclaré. 

Certains rapports sur les vulnérabilités exposées étaient assez inoffensifs. Une participante, Kennedy Mays, a déclaré avoir fait des allers-retours avec un LLM et avoir réussi à lui faire admettre que 9 + 10 = 21. Le modèle a accepté cela dans le cadre d'une "blague interne", mais a ensuite donné la réponse incorrecte sans la préciser.

Les concurrents ne savaient pas quel modèle ils utilisaient, de sorte que même les récits anecdotiques de vulnérabilités ne nous permettent pas de savoir quel modèle de l'entreprise a été le plus performant.

Les commentaires d'Arati Prabhakar, directrice du Bureau de la politique scientifique et technologique de la Maison Blanche, nous donnent une idée du nombre de vulnérabilités exposées. Elle a déclaré : "Tout le monde semble trouver un moyen de casser ces systèmes".

L'objectif de cet événement était de permettre aux hackers éthiques d'identifier les problèmes afin qu'ils puissent être corrigés. Il est certain qu'il y a beaucoup de pirates noirs qui cherchent des vulnérabilités pour les exploiter. exploités dans la cybercriminaliténon publié pour correction.

Le programme de l'événement du samedi a été interrompu prématurément après qu'une alerte à la bombe a entraîné l'évacuation du site principal par les services de sécurité. Les services de sécurité ont fouillé le bâtiment et n'ont trouvé aucune bombe, si bien que le programme de dimanche a pu se dérouler, même si un sentiment d'inquiétude s'est installé.

L'alerte à la bombe n'était probablement qu'une mauvaise blague qui, d'une manière étrange, parodiait l'événement lui-même. Nous continuons à chercher à exposer les dangers de l'IA et nous pouvons tenter de corriger les bogues que nous identifions. 

Mais même lorsque les experts ne décèlent pas de menace spécifique, l'éventualité d'une telle menace nous met toujours mal à l'aise. Nous nous demandons : "Et s'ils avaient raté quelque chose ?".

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation