Google Cloud heeft zijn voorspelling voor cyberbeveiliging en cybercriminaliteit voor 2024 vrijgegeven en de dreiging van AI staat bovenaan de lijst.
Oplichters maken al lange tijd gebruik van phishing-e-mails en sms-berichten, maar het rapport zegt dat grote taalmodellen (LLM) het moeilijker gaan maken om deze te herkennen.
Eerder werd je achterdocht misschien gewekt door de slechte grammatica en spelling die de 'Nigeriaanse prins' gebruikte in zijn e-mail over een geweldige financiële kans die hij met je wilde delen.
Een oplichter kan zijn pitch nu eenvoudig door een LLM laten lopen om hem te vertalen en te polijsten voordat hij in je inbox belandt. De voorspelling verwacht ook dat scammers legitieme inhoud zullen gebruiken om een LLM aan te zetten en vervolgens aangepaste versies zullen genereren die eruitzien en aanvoelen als het origineel.
Er wordt ook verwacht dat generatieve AI scammers in staat zal stellen om over te stappen van traditionele e-mail- en sms-tactieken naar door AI gegenereerde stem- en videocriminaliteit.
LLM's en gen AI zullen oplichters om hun werk op schaal te doen en ook om hun berichtgeving veel meer op maat te maken voor gepersonaliseerde aanvallen.
In de voorspelling werd ook opgemerkt dat naarmate aanvallers nepnieuws gebruiken om mensen op te lichten, het vertrouwen van de samenleving in alle nieuws- en informatiebronnen zal afnemen.
Hoe ziet cyberbeveiliging eruit in 2024?
Download het Google Cloud Cybersecurity Forecast 2024-rapport voor inzicht in de tactieken en activiteiten van aanvallers in het komende jaar → https://t.co/APJfNoEQNC pic.twitter.com/1Kpr04nsUR
- Google Cloud (@googlecloud) 8 november 2023
AI-cybercriminaliteit als dienst
Eerder dit jaar schreven we over FraudeGPT, een chatbot die ogenschijnlijk speciaal is gemaakt om te hacken en op te lichten. Er was nogal wat scepsis over hoe nuttig het zou zijn om criminelen te helpen, maar Google verwacht dat we in de toekomst meer van dit soort tools zullen zien.
De voorspelling legt uit dat AI-cybercrime-instrumenten waarschijnlijk als dienst zullen worden aangeboden. Het rapport zegt: "Ze zullen worden aangeboden op ondergrondse fora als een betaalde dienst en worden gebruikt voor verschillende doeleinden, zoals phishing-campagnes en het verspreiden van desinformatie."
Cybercriminaliteit richt zich meestal op individuen of bedrijven, maar de voorspelling ziet andere doelen dan financieel gewin aan de horizon verschijnen.
Met de Amerikaanse presidentsverkiezingen volgend jaar in het vooruitzicht, zegt het rapport: "We zullen zien dat nationale staten en andere bedreigingsactoren zich bezighouden met een verscheidenheid aan cyberactiviteiten, waaronder spionage en beïnvloedingsoperaties gericht op de kiesstelsels, het zich voordoen als kandidaten op sociale media en informatieoperaties gericht op de kiezers zelf."
De Grote Vier
Google's voorspelling noemt China, Rusland, Noord-Korea en Iran als de belangrijkste cyberbedreigingen voor de rest van de wereld.
Naast spionage zegt de organisatie ook dat China en Rusland Afrikaanse landen zullen blijven aanvallen met desinformatie, vooral landen met afzettingen van zeldzame aardmetalen die essentieel zijn voor veel high-tech producten.
De voorspelling wees op de Olympische Spelen van Parijs in 2024 als specifiek doelwit voor criminelen en anti-Europa acteurs. Dit lijkt al te gebeuren met een deepfake van Tom Cruise die het IOC bekritiseert.
In wat zich voordoet als een Netflix-promo lijkt Tom Cruise te zeggen dat corrupte ambtenaren "langzaam en pijnlijk de Olympische sporten vernietigen die al duizenden jaren bestaan".
Een AI "Tom Cruise" sluit zich aan bij het nepnieuws spervuur gericht op de Olympische Spelen.https://t.co/YV2Hkp1Hdp
- POLITICOEurope (@POLITICOEurope) 10 november 2023
Met Russische atleten die niet mogen meedoen onder de vlag van hun land, is het een goede gok dat pro-Kremlin acteurs de bron zijn van deze deepfake.
De voorspelling van Google is grimmig om te lezen en het lijkt erop dat het volledig omzeilen van AI-gestuurde cybercriminaliteit wel eens Mission Impossible zou kunnen zijn.