Forskere har afsløret en ny type computervirus, der udnytter kraften i store sprogmodeller (LLM'er) til at undgå at blive opdaget og sprede sig selv.
Denne "syntetiske kræft", som skaberne kalder den, viser, hvad der kan blive en ny æra inden for malware.
David Zollikofer fra ETH Zürich og Benjamin Zimmerman fra Ohio State University udviklede denne proof-of-concept-malware som en del af deres indsendelse til Schweizisk pris for AI-sikkerhed.
Deres skabelse, beskrevet i en Papir til forhåndstryk med titlen "Synthetic Cancer - Augmenting Worms with LLMs" viser potentialet for, at AI kan udnyttes til at skabe nye, meget sofistikerede cyberangreb.
Her er en gennemgang af, hvordan det fungerer:
- Installation: Malwaren leveres oprindeligt via en vedhæftet fil i en e-mail. Når den er udført, kan den downloade yderligere filer og potentielt kryptere brugerens data.
- Replikation: Den interessante fase udnytter GPT-4 eller lignende LLM'er. Ormen kan interagere med disse AI-modeller på to måder: a) Gennem API-opkald til skybaserede tjenester som OpenAI's GPT-4. Eller b) Ved at køre en lokal LLM (som kunne være almindelig i fremtidige enheder).
- Brug af GPT-4/LLM: Zollikofer forklaret til New Scientist"Vi beder ChatGPT om at omskrive filen, holde den semantiske struktur intakt, men ændre den måde, variabler navngives på, og ændre logikken en smule." LLM genererer derefter en ny version af koden med ændrede variabelnavne, omstruktureret logik og potentielt endda forskellige kodestile, samtidig med at den oprindelige funktionalitet opretholdes.
- Spredning: Ormen scanner offerets Outlook-e-mailhistorik og sender denne kontekst til AI'en. LLM genererer derefter kontekstuelt relevante e-mailsvar, komplet med social engineering-taktik, der er designet til at opfordre modtagerne til at åbne en vedhæftet kopi af ormen.
Som vi kan se, bruger virussen AI på to dage: til at skabe kode til selvreplikering og til at skrive phishing-indhold for at fortsætte spredningen.
Desuden er tormens evne til at omskrive sin egen kode udgør et særligt udfordrende problem for cybersikkerhedseksperter, da den kan gøre traditionelle signaturbaserede antivirusløsninger forældede.
"Angrebssiden har nogle fordele lige nu, fordi der er blevet forsket mere i det," bemærker Zollikofer.
Forskere fra Cornell Tech rapporterede om en lignende AI-drevet orm i marts. Ben Nassi og hans team skabte en orm der kan angribe AI-drevne e-mail-assistenter, stjæle følsomme data og sprede sig til andre systemer.
Nassis team gik målrettet efter e-mail-assistenter drevet af OpenAI's GPT-4, Googles Gemini Pro og open source-modellen LLaVA.
"Det kan være navne, det kan være telefonnumre, kreditkortnumre, SSN, alt, hvad der betragtes som fortroligt". Nassi fortalte Wiredhvilket understreger potentialet for massive databrud.
Mens Nassis orm primært var rettet mod AI-assistenter, går Zollikofer og Zimmermans skabelse et skridt videre ved direkte at manipulere malware-koden og skrive phishing-mails autonomt.
Frygt for AI-cybersikkerhed er under opsejling
Det har været nogle turbulente dage for cybersikkerhed i en AI-sammenhæng, med Disney ramt af databrud i hænderne på en hacktivistgruppe.
Gruppen sagde, at de kæmpede mod teknologivirksomheder for at repræsentere skabere, hvis ophavsretligt beskyttede arbejde var blevet stjålet, eller hvis værdi på anden måde var blevet forringet.
Det er ikke længe siden, OpenAI blev udsat for for at have været udsat for et sikkerhedsbrud i 2023, som de forsøgte at holde hemmeligt. Og for ikke så længe siden blev OpenAI og Microsoft udgav en rapport og indrømmede, at hackergrupper fra Rusland, Nordkorea og Kina havde brugt deres AI-værktøjer til at lave strategier for cyberangreb.
Studiets forfattere Zollikofer og Zimmerman har implementeret flere sikkerhedsforanstaltninger for at forhindre misbrug, herunder ikke at dele koden offentligt og bevidst lade specifikke detaljer være vage i deres artikel.
"Vi er fuldt ud klar over, at denne artikel præsenterer en malware-type med stort potentiale for misbrug", skriver forskerne i deres meddelelse. "Vi udgiver dette i god tro og i et forsøg på at øge bevidstheden."
I mellemtiden forudsagde Nassi og hans kolleger, at AI-orme kunne begynde at sprede sig i naturen "i løbet af de næste par år" og "vil udløse betydelige og uønskede resultater".
I betragtning af de hurtige fremskridt, vi har været vidne til på bare fire måneder, virker denne tidslinje ikke bare plausibel, men potentielt konservativ.