El Centro Nacional de Ciberseguridad del Reino Unido (NCSC) ha publicado recientemente un informe fundamental en el que se evalúa en profundidad cómo la inteligencia artificial va a influir en el panorama de las ciberamenazas en los próximos dos años.
Este informe es la continuación de los debates celebrados en la Cumbre sobre seguridad de la IA de Bletchley en noviembre de 2023, donde la "doble naturaleza" de la IA como beneficio y como riesgo para la ciberseguridad fue uno de los puntos clave.
Aunque los avances de la IA presentan nuevas oportunidades para la ciberdefensa, también allanan el camino a ciberataques más sofisticados y difíciles de detectar.
El informe sugiere un futuro en el que el panorama de la ciberseguridad será cada vez más complejo, con la IA desempeñando un papel central tanto en la defensa contra las ciberamenazas como en su facilitación.
Clave riesgos del informe incluyen:
- Intensificación del volumen y el impacto de los ciberataques: La IA está llamada a aumentar la frecuencia y gravedad de los ciberataques.
- Barreras más bajas para los ciberdelincuentes principiantes: Las tecnologías de IA están facilitando a los ciberdelincuentes aficionados y novatos la ejecución de ciberataques eficaces.
- Disponibilidad generalizada de cibercapacidades basadas en IA: Es probable que la creciente accesibilidad de las herramientas de IA en los mercados criminales y comerciales dote a los actores de las ciberamenazas de nuevos enfoques.
- Mayores retos en ciberresiliencia: La IA complicará la distinción entre comunicaciones legítimas y maliciosas, amplificando los retos en la gestión de la ciberseguridad.
- Ingeniería social: La IA mejora la capacidad de los actores de amenazas en ingeniería social mediante la generación de documentos y comunicaciones señuelo de aspecto auténtico, necesarios para las estafas de phishing.
- Desarrollo de malware y exploits: Es probable que la IA ayude a desarrollar malware y exploits, haciendo más eficientes las técnicas existentes.
- Reconocimiento: La IA mejorará las actividades de reconocimiento, ayudando a los actores de amenazas a identificar activos de alto valor para su examen y exfiltración (una transferencia de datos no autorizada) con mayor rapidez.
Lindy Cameron, Directora Ejecutiva del NCSC, explicó el informe: "El uso emergente de la IA en los ciberataques es evolutivo, no revolucionario, lo que significa que mejora las amenazas existentes, como el ransomware, pero no transforma el panorama de riesgos a corto plazo."
Esto podría conducir a un aumento de los ciberataques, especialmente del ransomware, por parte de individuos o grupos menos experimentados. Sin embargo, los actores estatales altamente capacitados siguen siendo los mejor posicionados para utilizar la IA en el desarrollo de malware avanzado.
Ya hemos visto el potencial de las herramientas de IA generativa orientadas al fraude como FraudGPT y WormGPT.
Al igual que el NCSC, informes anteriores en una línea similar también han destacado la democratización de la IA y la ampliación de los ciberataques, incluido OpenAI, que anunciado recientemente sus planes para reprimir la desinformación electoral y las falsificaciones profundas.
OpenAI es ahora trabaja con el Departamento de Defensa de EE.UU. para apoyar e innovar las ciberdefensas, entre otras cosas, y anunció un $1 millón de subvención para soluciones el año pasado.