Storbritanniens National Cyber Security Centre (NCSC) har nyligen släppt en viktig rapport som ger en grundlig bedömning av hur AI kommer att påverka cyberhotbilden under de kommande två åren.
Denna rapport följer de diskussioner som fördes vid Toppmöte om AI-säkerhet i Bletchley i november 2023, där AI:s "dubbla natur" - AI som både en fördel och en cybersäkerhetsrisk - var ett viktigt fokus.
Samtidigt som AI-utvecklingen skapar nya möjligheter för cyberförsvaret, banar den också väg för mer sofistikerade och svårare att upptäcka cyberattacker.
Rapporten pekar på en framtid där cybersäkerhetslandskapet blir alltmer komplext och där AI spelar en central roll i både försvaret mot och underlättandet av cyberhot.
Nyckel risker från rapporten inkludera:
- Ökad volym och effekt av cyberattacker: AI kommer att öka frekvensen och allvarlighetsgraden av cyberattacker.
- Lägre barriärer för cyberbrottslingar på nybörjarnivå: AI-teknik gör det lättare för amatörer och nybörjare att genomföra effektiva cyberattacker.
- Utbredd tillgång till AI-baserade cyberfunktioner: Den ökande tillgången till AI-verktyg på kriminella och kommersiella marknader kommer sannolikt att ge cyberhotaktörer nya metoder.
- Ökade utmaningar inom cyberresiliens: AI kommer att göra det svårare att skilja mellan legitim och skadlig kommunikation, vilket ökar utmaningarna för cybersäkerhetshanteringen.
- Social ingenjörskonst: AI förbättrar hotaktörernas förmåga till social ingenjörskonst genom att generera autentiska lockdokument och kommunikation som krävs för phishing-bedrägerier.
- Utveckling av skadlig kod och exploateringsverktyg: AI kommer sannolikt att hjälpa till att utveckla skadlig kod och exploateringar, vilket gör befintliga tekniker mer effektiva.
- Spaning: AI kommer att förbättra spaningsverksamheten och hjälpa hotaktörer att snabbare identifiera värdefulla tillgångar för undersökning och exfiltrering (en obehörig dataöverföring).
Lindy Cameron, Chief Executive på NCSC, förklarade rapporten: "Den framväxande användningen av AI i cyberattacker är evolutionär och inte revolutionerande, vilket innebär att den förstärker befintliga hot som ransomware men inte förändrar risklandskapet på kort sikt."
Detta kan leda till en kraftig ökning av cyberattacker, särskilt ransomware, från mindre erfarna individer eller grupper. Mycket kapabla statliga hotaktörer är dock fortfarande bäst positionerade för att använda AI för att utveckla avancerad skadlig kod.
Vi har redan sett potentialen i bedrägeriinriktade generativa AI-verktyg som FraudGPT och WormGPT.
I likhet med NCSC har tidigare rapporter i liknande anda också belyst AI:s demokratisering och skalning av cyberattacker, inklusive OpenAI, som nyligen meddelat sina planer för att stävja desinformation och förfalskningar i samband med val.
OpenAI är arbetar nu med USA:s försvarsdepartement för att stödja och förnya cyberförsvar, bland annat, och tillkännagav en $1 miljoner i bidrag för lösningar förra året.