Het National Cyber Security Centre (NCSC) in het Verenigd Koninkrijk heeft onlangs een belangrijk rapport uitgebracht met een grondige beoordeling van de invloed die AI de komende twee jaar zal hebben op het landschap van cyberdreigingen.
Dit verslag volgt op de discussies tijdens de Bletchley AI veiligheidstop in november 2023, waar de "dubbele aard" van AI als zowel een voordeel als een cyberbeveiligingsrisico centraal stond.
De vooruitgang op het gebied van AI biedt nieuwe mogelijkheden voor cyberdefensie, maar maakt ook de weg vrij voor geavanceerdere en moeilijker te detecteren cyberaanvallen.
Het rapport suggereert een toekomst waarin het cyberbeveiligingslandschap steeds complexer wordt, waarbij AI een centrale rol speelt in zowel de verdediging tegen als het faciliteren van cyberbedreigingen.
Sleutel risico's uit het rapport omvatten:
- Toenemende omvang en impact van cyberaanvallen: AI zal de frequentie en ernst van cyberaanvallen doen toenemen.
- Lagere drempels voor beginnende cybercriminelen: AI-technologieën maken het voor amateur- en beginnende cybercriminelen gemakkelijker om effectieve cyberaanvallen uit te voeren.
- Wijdverbreide beschikbaarheid van AI-gebaseerde cybercapaciteiten: De toenemende toegankelijkheid van AI-tools op criminele en commerciële markten zal actoren van cyberdreigingen waarschijnlijk wapenen met nieuwe benaderingen.
- Grotere uitdagingen in cyberweerbaarheid: AI zal het onderscheid tussen legitieme en kwaadaardige communicatie bemoeilijken, waardoor de uitdagingen op het gebied van cyberbeveiligingsbeheer toenemen.
- Social engineering: AI vergroot de mogelijkheden van bedreigingsactoren op het gebied van social engineering door authentiek ogende lokdocumenten en communicatie te genereren die nodig zijn voor phishing-zwendel.
- Ontwikkeling van malware en exploits: AI zal waarschijnlijk helpen bij het ontwikkelen van malware en exploits, waardoor bestaande technieken efficiënter worden.
- Verkenning: AI zal verkenningsactiviteiten verbeteren, waardoor bedreigingsactoren sneller waardevolle bedrijfsmiddelen kunnen identificeren voor onderzoek en exfiltratie (een ongeautoriseerde gegevensoverdracht).
Lindy Cameron, Chief Executive van het NCSC, lichtte het rapport toe: "Het opkomende gebruik van AI bij cyberaanvallen is niet revolutionair, wat betekent dat het bestaande bedreigingen zoals ransomware versterkt, maar het risicolandschap op de korte termijn niet transformeert."
Dit zou kunnen leiden tot een toename van cyberaanvallen, met name ransomware, door minder ervaren individuen of groepen. Zeer capabele staatsbedreigingsactoren blijven echter in de beste positie om AI te gebruiken voor de ontwikkeling van geavanceerde malware.
We hebben het potentieel van fraudegerichte generatieve AI-tools al gezien zoals FraudGPT en WormGPT.
Net als het NCSC hebben eerdere rapporten met een vergelijkbare strekking ook gewezen op de democratisering en schaalvergroting van cyberaanvallen door AI, waaronder OpenAI, dat onlangs aangekondigd haar plannen om verkiezingsmisleiding en neppers aan te pakken.
OpenAI is werkt nu samen met het Amerikaanse ministerie van Defensie om onder andere cyberverdediging te ondersteunen en te innoveren, en kondigde een $1 miljoen subsidie voor oplossingen vorig jaar.