Forskere har avduket en ny type datavirus som utnytter kraften i store språkmodeller (LLM-er) til å unngå å bli oppdaget og spre seg selv.
Denne "syntetiske kreften", som skaperne kaller den, er et bilde på det som kan bli en ny æra innen skadelig programvare.
David Zollikofer fra ETH Zürich og Benjamin Zimmerman fra Ohio State University utviklet denne proof-of-concept-skadevaren som en del av deres bidrag til Sveitsisk pris for AI-sikkerhet.
Opprettelsen av dem, beskrevet i en forhåndstrykk av papir "Synthetic Cancer - Augmenting Worms with LLMs", viser hvordan kunstig intelligens kan utnyttes til å skape nye, svært sofistikerte cyberangrep.
Her er en detaljert beskrivelse av hvordan det fungerer:
- Installasjon: Den skadelige programvaren leveres opprinnelig via e-postvedlegg. Når den er kjørt, kan den laste ned flere filer og potensielt kryptere brukerens data.
- Replikasjon: Det interessante stadiet utnytter GPT-4 eller lignende LLM-er. Ormen kan samhandle med disse AI-modellene på to måter: a) Gjennom API-kall til skybaserte tjenester som OpenAIs GPT-4. Eller b) Ved å kjøre en lokal LLM (noe som kan bli vanlig i fremtidige enheter).
- Bruk av GPT-4/LLM: Zollikofer forklarte til New Scientist"Vi ber ChatGPT om å skrive om filen, beholde den semantiske strukturen intakt, men endre måten variablene navngis på og endre logikken litt." LLM genererer deretter en ny versjon av koden med endrede variabelnavn, omstrukturert logikk og potensielt til og med forskjellige kodestiler, samtidig som den opprinnelige funksjonaliteten opprettholdes.
- Spredning: Ormen skanner offerets Outlook-e-posthistorikk og sender denne konteksten til AI-en. LLM genererer deretter kontekstuelt relevante e-postsvar, komplett med sosial manipulasjonstaktikk designet for å oppmuntre mottakerne til å åpne en vedlagt kopi av ormen.
Som vi kan se, bruker viruset kunstig intelligens i to dager: til å lage kode for å reprodusere seg selv og til å skrive phishing-innhold for å fortsette spredningen.
Dessuten, tormens evne til å omskrive sin egen kode utgjør et spesielt utfordrende problem for cybersikkerhetseksperter, ettersom den kan gjøre tradisjonelle signaturbaserte antivirusløsninger overflødige.
"Angrepssiden har noen fordeler akkurat nå, fordi det har blitt forsket mer på det", sier Zollikofer.
Forskere fra Cornell Tech rapporterte om en lignende AI-drevet orm i mars. Ben Nassi og teamet hans skapte en orm som kan angripe AI-drevne e-postassistenter, stjele sensitive data og spre seg til andre systemer.
Nassis team siktet seg inn på e-postassistenter drevet av OpenAIs GPT-4, Googles Gemini Pro og åpen kildekode-modellen LLaVA.
"Det kan være navn, telefonnumre, kredittkortnumre, SSN, alt som anses som konfidensielt." Nassi fortalte Wiredog understreker potensialet for massive datainnbrudd.
Mens Nassis orm først og fremst var rettet mot AI-assistenter, går Zollikofer og Zimmermans kreasjon et skritt videre ved å manipulere skadeprogrammets kode direkte og skrive phishing-e-postene autonomt.
Frykten for AI-sikkerhet er under oppseiling
Dette har vært noen turbulente dager for cybersikkerhet i en AI-sammenheng, med Disney utsatt for datainnbrudd av en hacktivistgruppe.
Gruppen sa at de kjempet mot teknologiselskaper for å representere opphavsmenn hvis opphavsrettsbeskyttede verk var blitt stjålet eller redusert i verdi på annen måte.
Det er ikke lenge siden, OpenAI ble utsatt for å ha blitt utsatt for et sikkerhetsbrudd i 2023, som de forsøkte å holde hemmelig. Og for ikke lenge siden ble OpenAI og Microsoft utgitt en rapport og innrømmet at hackergrupper fra Russland, Nord-Korea og Kina hadde brukt AI-verktøyene sine til å lage strategier for cyberangrep.
Forfatterne av studien, Zollikofer og Zimmerman, har iverksatt flere sikkerhetstiltak for å forhindre misbruk, blant annet ved ikke å dele koden offentlig og ved bevisst å la spesifikke detaljer være vage i artikkelen.
"Vi er fullt klar over at denne artikkelen presenterer en type skadelig programvare med stort potensial for misbruk", skriver forskerne i sin offentliggjøring. "Vi publiserer dette i god tro og i et forsøk på å øke bevisstheten."
I mellomtiden spådde Nassi og kollegene hans at AI-ormer kan begynne å spre seg i naturen "i løpet av de neste årene" og "vil utløse betydelige og uønskede resultater".
Med tanke på de raske fremskrittene vi har vært vitne til på bare fire måneder, virker denne tidslinjen ikke bare plausibel, men potensielt konservativ.