AI-drevet 'syntetisk kræft'-orm repræsenterer en ny grænse inden for cybertrusler

17. juli 2024

  • Forskere byggede en orm, der kan udnytte AI-værktøjer til at reproducere sig selv og sprede sig
  • Den interagerer med GPT-4 for at replikere sin kode og starte phishing-angreb
  • Forskere byggede en anden variant af en 'AI-orm' tidligere i år
AI-cybersikkerhed

Forskere har afsløret en ny type computervirus, der udnytter kraften i store sprogmodeller (LLM'er) til at undgå at blive opdaget og sprede sig selv. 

Denne "syntetiske kræft", som skaberne kalder den, viser, hvad der kan blive en ny æra inden for malware.

David Zollikofer fra ETH Zürich og Benjamin Zimmerman fra Ohio State University udviklede denne proof-of-concept-malware som en del af deres indsendelse til Schweizisk pris for AI-sikkerhed

Deres skabelse, beskrevet i en Papir til forhåndstryk med titlen "Synthetic Cancer - Augmenting Worms with LLMs" viser potentialet for, at AI kan udnyttes til at skabe nye, meget sofistikerede cyberangreb. 

Her er en gennemgang af, hvordan det fungerer:

  1. Installation: Malwaren leveres oprindeligt via en vedhæftet fil i en e-mail. Når den er udført, kan den downloade yderligere filer og potentielt kryptere brugerens data.
  2. Replikation: Den interessante fase udnytter GPT-4 eller lignende LLM'er. Ormen kan interagere med disse AI-modeller på to måder: a) Gennem API-opkald til skybaserede tjenester som OpenAI's GPT-4. Eller b) Ved at køre en lokal LLM (som kunne være almindelig i fremtidige enheder).
  3. Brug af GPT-4/LLM: Zollikofer forklaret til New Scientist"Vi beder ChatGPT om at omskrive filen, holde den semantiske struktur intakt, men ændre den måde, variabler navngives på, og ændre logikken en smule." LLM genererer derefter en ny version af koden med ændrede variabelnavne, omstruktureret logik og potentielt endda forskellige kodestile, samtidig med at den oprindelige funktionalitet opretholdes. 
  4. Spredning: Ormen scanner offerets Outlook-e-mailhistorik og sender denne kontekst til AI'en. LLM genererer derefter kontekstuelt relevante e-mailsvar, komplet med social engineering-taktik, der er designet til at opfordre modtagerne til at åbne en vedhæftet kopi af ormen. 

Som vi kan se, bruger virussen AI på to dage: til at skabe kode til selvreplikering og til at skrive phishing-indhold for at fortsætte spredningen.

Desuden er tormens evne til at omskrive sin egen kode udgør et særligt udfordrende problem for cybersikkerhedseksperter, da den kan gøre traditionelle signaturbaserede antivirusløsninger forældede.

"Angrebssiden har nogle fordele lige nu, fordi der er blevet forsket mere i det," bemærker Zollikofer. 

Forskere fra Cornell Tech rapporterede om en lignende AI-drevet orm i marts. Ben Nassi og hans team skabte en orm der kan angribe AI-drevne e-mail-assistenter, stjæle følsomme data og sprede sig til andre systemer. 

Nassis team gik målrettet efter e-mail-assistenter drevet af OpenAI's GPT-4, Googles Gemini Pro og open source-modellen LLaVA.

"Det kan være navne, det kan være telefonnumre, kreditkortnumre, SSN, alt, hvad der betragtes som fortroligt". Nassi fortalte Wiredhvilket understreger potentialet for massive databrud.

Mens Nassis orm primært var rettet mod AI-assistenter, går Zollikofer og Zimmermans skabelse et skridt videre ved direkte at manipulere malware-koden og skrive phishing-mails autonomt.

Frygt for AI-cybersikkerhed er under opsejling

Det har været nogle turbulente dage for cybersikkerhed i en AI-sammenhæng, med Disney ramt af databrud i hænderne på en hacktivistgruppe.

Gruppen sagde, at de kæmpede mod teknologivirksomheder for at repræsentere skabere, hvis ophavsretligt beskyttede arbejde var blevet stjålet, eller hvis værdi på anden måde var blevet forringet.

Det er ikke længe siden, OpenAI blev udsat for for at have været udsat for et sikkerhedsbrud i 2023, som de forsøgte at holde hemmeligt. Og for ikke så længe siden blev OpenAI og Microsoft udgav en rapport og indrømmede, at hackergrupper fra Rusland, Nordkorea og Kina havde brugt deres AI-værktøjer til at lave strategier for cyberangreb. 

Studiets forfattere Zollikofer og Zimmerman har implementeret flere sikkerhedsforanstaltninger for at forhindre misbrug, herunder ikke at dele koden offentligt og bevidst lade specifikke detaljer være vage i deres artikel.

"Vi er fuldt ud klar over, at denne artikel præsenterer en malware-type med stort potentiale for misbrug", skriver forskerne i deres meddelelse. "Vi udgiver dette i god tro og i et forsøg på at øge bevidstheden."

I mellemtiden forudsagde Nassi og hans kolleger, at AI-orme kunne begynde at sprede sig i naturen "i løbet af de næste par år" og "vil udløse betydelige og uønskede resultater". 

I betragtning af de hurtige fremskridt, vi har været vidne til på bare fire måneder, virker denne tidslinje ikke bare plausibel, men potentielt konservativ.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser