AI-driven "syntetisk cancer"-mask representerar en ny gräns för cyberhot

17 juli 2024

  • Forskare skapade en mask som kan utnyttja AI-verktyg för att självreplikera och sprida sig
  • Den interagerar med GPT-4 för att replikera dess kod och starta phishing-attacker
  • Forskare byggde en annan variant av en "AI-mask" tidigare i år
AI cybersäkerhet

Forskare har presenterat en ny typ av datavirus som utnyttjar kraften i stora språkmodeller (LLM) för att undvika upptäckt och sprida sig själv. 

Denna "syntetiska cancer", som dess skapare kallar den, visar på vad som kan vara en ny era inom skadlig kod.

David Zollikofer från ETH Zürich och Benjamin Zimmerman från Ohio State University utvecklade denna proof-of-concept-malware som en del av sin ansökan till Schweiziska priset för AI-säkerhet

Deras skapelse, som beskrivs i en förtryckt papper med titeln "Synthetic Cancer - Augmenting Worms with LLMs", visar på potentialen för AI att utnyttjas för att skapa nya, mycket sofistikerade cyberattacker. 

Här är en genomgång av hur det fungerar:

  1. Installation: Den skadliga programvaran levereras ursprungligen via e-postbilaga. När den har körts kan den ladda ner ytterligare filer och potentiellt kryptera användarens data.
  2. Replikering: Det intressanta steget utnyttjar GPT-4 eller liknande LLM:er. Masken kan interagera med dessa AI-modeller på två sätt: a) Genom API-anrop till molnbaserade tjänster som OpenAI:s GPT-4. Eller b) Genom att köra en lokal LLM (vilket kan vara vanligt i framtida enheter).
  3. Användning av GPT-4/LLM: Zollikofer förklarade för New Scientist"Vi ber ChatGPT att skriva om filen och behålla den semantiska strukturen intakt, men ändra hur variablerna namnges och ändra logiken lite." LLM genererar sedan en ny version av koden med ändrade variabelnamn, omstrukturerad logik och eventuellt till och med olika kodningsstilar, samtidigt som den ursprungliga funktionaliteten bibehålls. 
  4. Spridning: Masken skannar offrets Outlook-e-posthistorik och matar detta sammanhang till AI. LLM genererar sedan kontextuellt relevanta e-postsvar, komplett med socialteknisk taktik utformad för att uppmuntra mottagarna att öppna en bifogad kopia av masken. 

Som vi kan se använder viruset AI på två dagar: för att skapa kod för att självreplikera och för att skriva phishing-innehåll för att fortsätta spridningen.

Dessutom är tormens förmåga att skriva om sin egen kod utgör en särskilt stor utmaning för cybersäkerhetsexperter, eftersom den kan göra traditionella signaturbaserade antiviruslösningar föråldrade.

"Angreppssidan har vissa fördelar just nu, eftersom det har forskats mer på den", säger Zollikofer. 

Forskare från Cornell Tech rapporterade om en liknande AI-driven mask i mars. Ben Nassi och hans team skapade en mask som kan angripa AI-drivna e-postassistenter, stjäla känsliga uppgifter och sprida sig till andra system. 

Nassis team riktade in sig på e-postassistenter som drivs av OpenAI:s GPT-4, Googles Gemini Pro och open source-modellen LLaVA.

"Det kan vara namn, telefonnummer, kreditkortsnummer, SSN, allt som anses vara konfidentiellt." Nassi berättade för Wiredvilket understryker risken för omfattande dataintrång.

Medan Nassis mask främst riktade sig mot AI-assistenter, går Zollikofer och Zimmermans skapelse ett steg längre genom att direkt manipulera skadlig kod och skriva phishing-e-postmeddelanden autonomt.

Rädsla för AI-cybersäkerhet är under uppsegling

Det har varit några omtumlande dagar för cybersäkerhet i ett AI-sammanhang, med Disney drabbas av dataintrång i händerna på en hacktivistgrupp.

Gruppen sade att de kämpade mot teknikföretag för att företräda upphovsmän vars upphovsrättsskyddade verk hade stulits eller vars värde på annat sätt hade minskat.

Det var inte länge sedan, OpenAI var utsatt för att ha drabbats av ett intrång 2023, som de försökte hålla hemligt. Och för inte så länge sedan avslöjade OpenAI och Microsoft släppte en rapport och erkände att hackergrupper från Ryssland, Nordkorea och Kina hade använt sina AI-verktyg för att skapa strategier för cyberattacker. 

Studieförfattarna Zollikofer och Zimmerman har genomfört flera säkerhetsåtgärder för att förhindra missbruk, inklusive att inte dela koden offentligt och medvetet lämna specifika detaljer vaga i sin artikel.

"Vi är fullt medvetna om att detta dokument presenterar en typ av skadlig kod med stor potential för missbruk", säger forskarna i sitt avslöjande. "Vi publicerar detta i god tro och i ett försök att öka medvetenheten."

Samtidigt förutspådde Nassi och hans kollegor att AI-maskar kan börja spridas i naturen "under de närmaste åren" och "kommer att utlösa betydande och oönskade resultat". 

Med tanke på de snabba framsteg vi har sett på bara fyra månader verkar denna tidslinje inte bara rimlig, utan potentiellt konservativ.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar