Onderzoekers hebben een nieuw type computervirus onthuld dat gebruikmaakt van de kracht van grote taalmodellen (LLM's) om detectie te omzeilen en zichzelf te verspreiden.
Deze "synthetische kanker", zoals de makers het noemen, laat zien wat een nieuw tijdperk in malware zou kunnen zijn.
David Zollikofer van de ETH Zürich en Benjamin Zimmerman van de Ohio State University ontwikkelden deze proof-of-concept malware als onderdeel van hun inzending voor de Zwitserse AI-veiligheidsprijs.
Hun creatie, gedetailleerd in een voordrukpapier getiteld "Synthetic Cancer - Augmenting Worms with LLMs" laat zien dat AI kan worden gebruikt om nieuwe, zeer geavanceerde cyberaanvallen te creëren.
Hier lees je hoe het werkt:
- Installatie: De malware wordt in eerste instantie afgeleverd via een e-mailbijlage. Eenmaal uitgevoerd, kan het extra bestanden downloaden en mogelijk de gegevens van de gebruiker versleutelen.
- Replicatie: De interessante fase maakt gebruik van GPT-4 of vergelijkbare LLM's. De worm kan op twee manieren communiceren met deze AI-modellen: a) Via API-aanroepen naar cloud-gebaseerde services zoals OpenAI's GPT-4. Of b) Door een lokale LLM uit te voeren (wat gebruikelijk zou kunnen zijn in toekomstige apparaten).
- GPT-4/LLM-gebruik: Zollikofer verklaarde aan New ScientistWe vragen ChatGPT om het bestand te herschrijven, waarbij we de semantische structuur intact houden, maar de naamgeving van variabelen veranderen en de logica een beetje aanpassen. De LLM genereert dan een nieuwe versie van de code met gewijzigde variabelenamen, geherstructureerde logica en mogelijk zelfs andere coderingsstijlen, allemaal met behoud van de oorspronkelijke functionaliteit.
- Verspreiden: De worm scant de Outlook e-mailgeschiedenis van het slachtoffer en geeft deze context door aan de AI. De LLM genereert vervolgens contextueel relevante e-mailantwoorden, compleet met social engineering-tactieken die zijn ontworpen om ontvangers aan te moedigen een bijgevoegde kopie van de worm te openen.
Zoals we kunnen zien, gebruikt het virus AI in twee dagen: om code te maken om zichzelf te vermenigvuldigen en om phishing-inhoud te schrijven om zich verder te verspreiden.
Bovendien is tHet vermogen van de worm om zijn eigen code te herschrijven vormt een bijzonder uitdagend probleem voor cyberbeveiligingsexperts, omdat het traditionele antivirusoplossingen op basis van handtekeningen overbodig zou kunnen maken.
"De aanvalskant heeft op dit moment enkele voordelen, omdat daar meer onderzoek naar is gedaan," merkt Zollikofer op.
Onderzoekers van Cornell Tech rapporteerden in maart een soortgelijke AI-gestuurde worm. Ben Nassi en zijn team een worm gemaakt die AI-gestuurde e-mailassistenten kunnen aanvallen, gevoelige gegevens kunnen stelen en zich kunnen verspreiden naar andere systemen.
Nassi's team richtte zich op e-mailassistenten met OpenAI's GPT-4, Google's Gemini Pro en het open-source model LLaVA.
"Het kunnen namen zijn, telefoonnummers, creditcardnummers, SSN's, alles wat als vertrouwelijk wordt beschouwd," aldus de woordvoerder. Nassi vertelde WiredDit onderstreept het potentieel voor grootschalige datalekken.
Terwijl Nassi's worm vooral gericht was op AI-assistenten, gaat de creatie van Zollikofer en Zimmerman een stap verder door de code van de malware rechtstreeks te manipuleren en de phishingmails autonoom te schrijven.
Er broeit angst voor AI-cyberbeveiliging
Dit zijn een paar tumultueuze dagen geweest voor cyberbeveiliging in een AI-context, met Disney lijdt onder een datalek door toedoen van een hacktivistengroep.
De groep zei dat ze streden tegen techbedrijven om makers te vertegenwoordigen van wie het auteursrechtelijk beschermde werk was gestolen of waarvan de waarde op een andere manier was verminderd.
Nog niet zo lang geleden, OpenAI werd blootgesteld voor een inbreuk in 2023, die ze onder de pet probeerden te houden. En niet lang geleden hebben OpenAI en Microsoft een rapport uitgebracht Hij gaf toe dat hackersgroepen uit Rusland, Noord-Korea en China hun AI-tools gebruikten om strategieën voor cyberaanvallen te ontwikkelen.
De auteurs van de studie, Zollikofer en Zimmerman, hebben verschillende voorzorgsmaatregelen genomen om misbruik te voorkomen, waaronder het niet publiekelijk delen van de code en het opzettelijk vaag laten van specifieke details in hun artikel.
"We zijn ons er volledig van bewust dat dit artikel een type malware presenteert met een groot potentieel voor misbruik," stellen de onderzoekers in hun openbaarmaking. "We publiceren dit in goed vertrouwen en in een poging om het bewustzijn te vergroten."
Ondertussen voorspelden Nassi en zijn collega's dat AI-wormen zich "in de komende paar jaar" in het wild kunnen gaan verspreiden en "belangrijke en ongewenste gevolgen zullen hebben".
Gezien de snelle vooruitgang die we in slechts vier maanden hebben gezien, lijkt deze tijdlijn niet alleen plausibel, maar mogelijk zelfs conservatief.