El gusano "cáncer sintético" impulsado por inteligencia artificial representa una nueva frontera en las ciberamenazas

17 de julio de 2024

  • Los investigadores han creado un gusano capaz de aprovechar las herramientas de la IA para autorreplicarse y propagarse
  • Interactúa con GPT-4 para replicar su código y lanzar ataques de phishing
  • Los investigadores construyeron una variante diferente de un "gusano de IA" a principios de este año
Ciberseguridad de la IA

Los investigadores han desvelado un nuevo tipo de virus informático que aprovecha la potencia de los grandes modelos lingüísticos (LLM) para eludir la detección y propagarse. 

Este "cáncer sintético", como lo llaman sus creadores, retrata lo que podría ser una nueva era del malware.

David Zollikofer, de la ETH de Zúrich, y Benjamin Zimmerman, de la Universidad Estatal de Ohio, desarrollaron esta prueba de concepto de malware como parte de su presentación a la Premio Suizo de Seguridad de la IA

Su creación, detallada en un papel preimpreso titulado "Synthetic Cancer - Augmenting Worms with LLMs", demuestra el potencial de la IA para crear nuevos ciberataques muy sofisticados. 

A continuación te explicamos cómo funciona:

  1. Instalación: El malware se envía inicialmente por correo electrónico. Una vez ejecutado, puede descargar archivos adicionales y potencialmente cifrar los datos del usuario.
  2. Replicación: La etapa interesante aprovecha GPT-4 o LLM similares. El gusano puede interactuar con estos modelos de IA de dos maneras: a) A través de llamadas API a servicios basados en la nube como GPT-4 de OpenAI. O b) Ejecutando un LLM local (que podría ser común en futuros dispositivos).
  3. Uso de GPT-4/LLM: Zollikofer explicó a New Scientist"Pedimos a ChatGPT que reescriba el archivo, manteniendo intacta la estructura semántica, pero cambiando la forma de nombrar las variables y cambiando un poco la lógica". El LLM genera entonces una nueva versión del código con nombres de variables alterados, lógica reestructurada y, potencialmente, incluso estilos de codificación diferentes, todo ello manteniendo la funcionalidad original. 
  4. Difusión de: El gusano escanea el historial de correo electrónico de Outlook de la víctima y transmite este contexto a la IA. A continuación, el LLM genera respuestas de correo electrónico contextualmente relevantes, con tácticas de ingeniería social diseñadas para animar a los destinatarios a abrir una copia adjunta del gusano. 

Como vemos, el virus utiliza la IA en dos días: para crear código con el que autorreplicarse y para escribir contenido de phishing con el que seguir propagándose.

Además, ta capacidad del gusano para reescribir su propio código plantea un problema especialmente difícil para los expertos en ciberseguridad, ya que podría dejar obsoletas las soluciones antivirus tradicionales basadas en firmas.

"El lado del ataque tiene algunas ventajas en este momento, porque se ha investigado más sobre ello", señala Zollikofer. 

Los investigadores de Cornell Tech informaron de un gusano similar impulsado por IA en marzo. Ben Nassi y su equipo creó un gusano que podría atacar a los asistentes de correo electrónico impulsados por IA, robar datos confidenciales y propagarse a otros sistemas. 

El equipo de Nassi se centró en los asistentes de correo electrónico basados en GPT-4 de OpenAI, Gemini Pro de Google y el modelo de código abierto LLaVA.

"Pueden ser nombres, pueden ser números de teléfono, números de tarjetas de crédito, SSN, cualquier cosa que se considere confidencial". Nassi declaró a Wiredlo que subraya la posibilidad de que se produzcan filtraciones masivas de datos.

Mientras que el gusano de Nassi se dirigía principalmente a los asistentes de IA, la creación de Zollikofer y Zimmerman va un paso más allá al manipular directamente el código del malware y escribir los correos electrónicos de phishing de forma autónoma.

Se avecinan temores por la ciberseguridad de la IA

Han sido unos días tumultuosos para la ciberseguridad en un contexto de IA, con Disney sufre una violación de datos a manos de un grupo hacktivista.

El grupo dijo que estaba luchando contra las empresas tecnológicas para representar a los creadores cuyo trabajo protegido por derechos de autor había sido robado o su valor había disminuido de otro modo.

No hace mucho, OpenAI fue expuesto por haber sufrido una brecha en 2023, que intentaron mantener en secreto. Y no hace mucho, OpenAI y Microsoft publicó un informe admitiendo que grupos de hackers de Rusia, Corea del Norte y China habían estado utilizando sus herramientas de IA para elaborar estrategias de ciberataque. 

Los autores del estudio, Zollikofer y Zimmerman, han puesto en práctica varias medidas de seguridad para evitar usos indebidos, como no compartir el código públicamente y dejar deliberadamente vagos los detalles específicos en su artículo.

"Somos plenamente conscientes de que este trabajo presenta un tipo de malware con un gran potencial de abuso", afirman los investigadores en su comunicado. "Lo publicamos de buena fe y en un esfuerzo de concienciación".

Mientras tanto, Nassi y sus colegas predijeron que los gusanos de la IA podrían empezar a extenderse en la naturaleza "en los próximos años" y "desencadenarán resultados significativos y no deseados". 

Dados los rápidos avances que hemos presenciado en sólo cuatro meses, este calendario parece no sólo plausible, sino potencialmente conservador.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales