Microsoft ha denunciado el uso indebido de sus tecnologías de IA por parte de piratas informáticos patrocinados por Estados de Rusia, China e Irán.
Microsoft colaboró con OpenAI para observar las actividades de grupos vinculados a la inteligencia militar rusa, la Guardia Revolucionaria iraní y los gobiernos chino y norcoreano, utilizando herramientas avanzadas de IA para perfeccionar sus estrategias de pirateo y elaborar mensajes engañosos convincentes.
Como parte de Investigación de Microsoft y OpenAI...interrumpieron las actividades de cinco grupos malintencionados respaldados por el Estado poniendo fin a su acceso a los servicios de OpenAI.
Entre ellos figuran dos actores afiliados a China, Charcoal Typhoon y Salmon Typhoon; Crimson Sandstorm, de Irán; Emerald Sleet, vinculado a Corea del Norte; y Forest Blizzard, asociado a Rusia.
Estos grupos explotaban los servicios de OpenAI para tareas como la consulta de información de código abierto, la traducción, la identificación de errores de codificación y la realización de tareas básicas de codificación. En concreto:
- Charcoal Typhoon utilizaba los servicios de OpenAI para investigar empresas y herramientas de ciberseguridad, depurar código, generar scripts y crear contenidos de phishing.
- Salmon Typhoon utilizó los servicios de OpenAI para traducir documentos técnicos, recopilar información sobre varias agencias, colaborar en la codificación e investigar técnicas de sigilo.
- Crimson Sandstorm contrató los servicios de OpenAI para el soporte de secuencias de comandos en el desarrollo de aplicaciones y sitios web, la elaboración de contenido de spear-phishing y la exploración de métodos de evasión.
- Emerald Sleet aprovechó los servicios de OpenAI para identificar a expertos y organizaciones de defensa, comprender las vulnerabilidades, ayudar con scripts básicos y preparar material de phishing.
- Forest Blizzard utilizó los servicios de OpenAI principalmente para la investigación de código abierto sobre tecnologías de satélites y radares y para asistencia en la creación de scripts.
El hecho de que los actores de amenazas internacionales estén utilizando la tecnología de OpenAI encarna el enigma del doble uso de la IA.
Los actores de las amenazas eligen deliberadamente los modelos de OpenAI en lugar de desarrollar los suyos propios. Es más barato, más rápido y más eficaz. Sin embargo, las herramientas de código abierto soberanas están probablemente en camino.
Tom Burt, Vicepresidente de Seguridad del Cliente de Microsoft, se refirió a los resultados: "Independientemente de que haya alguna violación de la ley o de las condiciones de servicio, simplemente no queremos que los actores que hemos identificado -que rastreamos y sabemos que son actores de amenazas de diversa índole- tengan acceso a esta tecnología."
Microsoft está prohibiendo cualquier aplicación o carga de trabajo de IA alojada en Azure para estos grupos respaldados por el Estado. La administración Biden pidió recientemente que las empresas de tecnología denunciar a determinados usuarios extranjeros de tecnología en nube.
China respondió a través del portavoz de la embajada estadounidense Liu Pengyu, que denunció las acusaciones como infundadas y abogó por el despliegue responsable de las tecnologías de IA en beneficio de la humanidad.
China ha colaborado con la EE.UU. sobre la seguridad de la IA a puerta cerradapero quizá más por necesidad que por deseo.
Este es el último de una serie de informes sobre ciberdelincuencia publicados por Microsoft en los últimos meses, incluido uno del año pasado en el que se analizaba la propaganda generada por IA procedente de China y Corea del Norte.
Sin embargo, hay que decir que las amenazas de la IA están en todas partes. El fraude de falsificación profunda está aumentando considerablemente en Estados Unidos, Reino Unido y otras naciones occidentales y europeas, lo mismo que en Oriente.
Microsoft está rastreando a más de 300 agentes de amenazas únicos, entre los que se incluyen agentes estatales y grupos de ransomware, aprovechando la IA para mejorar sus defensas e interrumpir las actividades maliciosas.
Las ciberamenazas relacionadas con la inteligencia artificial van en aumento, y lo cierto es que son internacionales y difíciles de contener.