Le ver "cancer synthétique" alimenté par l'IA représente une nouvelle frontière dans les cybermenaces

17 juillet 2024

  • Des chercheurs ont créé un ver capable d'exploiter des outils d'intelligence artificielle pour s'autoreproduire et se propager
  • Il interagit avec GPT-4 pour reproduire son code et lancer des attaques de phishing.
  • Des chercheurs ont créé une variante différente d'un "ver de l'IA" au début de l'année.
Cybersécurité de l'IA

Des chercheurs ont dévoilé un nouveau type de virus informatique qui exploite la puissance des grands modèles de langage (LLM) pour échapper à la détection et se propager. 

Ce "cancer synthétique", comme l'appellent ses créateurs, illustre ce qui pourrait être une nouvelle ère dans le domaine des logiciels malveillants.

David Zollikofer, de l'ETH Zurich, et Benjamin Zimmerman, de l'Ohio State University, ont mis au point ce logiciel malveillant dans le cadre de leur soumission à la Prix suisse de la sécurité de l'IA

Leur création, détaillée dans un papier pré-imprimé intitulée "Synthetic Cancer - Augmenting Worms with LLMs", démontre que l'IA peut être exploitée pour créer de nouvelles cyberattaques très sophistiquées. 

Voici un aperçu de son fonctionnement :

  1. Installation: Le logiciel malveillant est initialement diffusé par le biais d'une pièce jointe à un courrier électronique. Une fois exécuté, il peut télécharger des fichiers supplémentaires et potentiellement chiffrer les données de l'utilisateur.
  2. Réplication: L'étape intéressante s'appuie sur GPT-4 ou des LLM similaires. Le ver peut interagir avec ces modèles d'IA de deux manières : a) par des appels API à des services basés dans le nuage comme le GPT-4 d'OpenAI. Ou b) en exécutant un LLM local (ce qui pourrait être courant dans les futurs appareils).
  3. Utilisation de GPT-4/LLM: Zollikofer a expliqué au New ScientistNous demandons à ChatGPT de réécrire le fichier en gardant la structure sémantique intacte, mais en changeant la façon dont les variables sont nommées et en modifiant légèrement la logique. Le LLM génère alors une nouvelle version du code avec des noms de variables modifiés, une logique restructurée et peut-être même des styles de codage différents, tout en conservant la fonctionnalité d'origine. 
  4. Diffusion: Le ver analyse l'historique des courriels Outlook de la victime et transmet ce contexte à l'IA. Le LLM génère alors des réponses contextuelles pertinentes, assorties de tactiques d'ingénierie sociale conçues pour encourager les destinataires à ouvrir une copie jointe du ver. 

Comme on peut le voir, le virus utilise l'IA en deux temps : pour créer du code afin de s'auto-répliquer et pour écrire du contenu de phishing afin de continuer à se propager.

De plus, tLa capacité du ver à réécrire son propre code pose un problème particulièrement difficile aux experts en cybersécurité, car elle pourrait rendre obsolètes les solutions antivirus traditionnelles basées sur les signatures.

"L'attaque a quelques avantages actuellement, car elle a fait l'objet de plus de recherches", note M. Zollikofer. 

Les chercheurs de Cornell Tech ont signalé un ver similaire alimenté par l'IA en mars. Ben Nassi et son équipe a créé un ver qui pourrait attaquer les assistants de messagerie dotés d'une intelligence artificielle, voler des données sensibles et se propager à d'autres systèmes. 

L'équipe de Nassi a ciblé les assistants de messagerie alimentés par le GPT-4 d'OpenAI, le Gemini Pro de Google et le modèle open-source LLaVA.

"Il peut s'agir de noms, de numéros de téléphone, de numéros de cartes de crédit, de numéros de sécurité sociale, de tout ce qui est considéré comme confidentiel". Nassi a déclaré à Wiredsoulignant le risque de violations massives de données.

Alors que le ver de Nassi ciblait principalement les assistants d'IA, la création de Zollikofer et Zimmerman va plus loin en manipulant directement le code du logiciel malveillant et en rédigeant les courriels d'hameçonnage de manière autonome.

La cybersécurité de l'IA suscite des craintes

Ces derniers jours ont été tumultueux pour la cybersécurité dans le contexte de l'IA. Disney victime d'une violation de données aux mains d'un groupe d'hacktivistes.

Le groupe a déclaré qu'il se battait contre les entreprises technologiques pour représenter les créateurs dont les œuvres protégées par des droits d'auteur ont été volées ou dont la valeur a été diminuée d'une manière ou d'une autre.

Il n'y a pas si longtemps, OpenAI a été exposée pour avoir subi une violation en 2023, qu'ils ont essayé de garder secrète. Il n'y a pas longtemps, OpenAI et Microsoft a publié un rapport en admettant que des groupes de pirates informatiques russes, nord-coréens et chinois utilisaient leurs outils d'intelligence artificielle pour élaborer des stratégies de cyberattaque. 

Les auteurs de l'étude, Zollikofer et Zimmerman, ont mis en place plusieurs mesures de protection pour éviter les abus, notamment en ne partageant pas le code publiquement et en laissant délibérément des détails spécifiques vagues dans leur article.

"Nous sommes pleinement conscients que cet article présente un type de logiciel malveillant présentant un grand potentiel d'abus", déclarent les chercheurs dans leur déclaration. "Nous le publions en toute bonne foi et dans le but de sensibiliser le public.

Nassi et ses collègues ont prédit que les vers d'IA pourraient commencer à se répandre dans la nature "dans les prochaines années" et qu'ils "déclencheront des résultats importants et indésirables". 

Compte tenu des progrès rapides dont nous avons été témoins en l'espace de quatre mois seulement, ce calendrier semble non seulement plausible, mais aussi potentiellement prudent.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation