LLM-agenter kan självständigt utnyttja endagssårbarheter

24 april 2024
  • Forskare presenterade AI-agenter med säkerhetsproblem och uppmanade dem att utnyttja dessa
  • En GPT-4-agent lyckades på egen hand utnyttja 87% av de testade sårbarheterna
  • Dessa förmågor kan göra det möjligt för mindre kvalificerade aktörer att ägna sig åt cyberbrottslighet

Forskare vid University of Illinois Urbana-Champaign (UIUC) fann att AI-agenter som drivs av GPT-4 autonomt kan utnyttja sårbarheter i cybersäkerheten.

I takt med att AI-modellerna blir allt kraftfullare kan de användas till både gott och ont. LLM:er som GPT-4 används allt oftare för att begå cyberbrott, med Googles prognoser att AI kommer att spela en stor roll när det gäller att begå och förhindra dessa attacker.

Hotet från AI-driven cyberbrottslighet har höjts i takt med att LLM:erna går bortom enkla prompt-response-interaktioner och agerar som autonoma AI-agenter.

I deras papperförklarade forskarna hur de testade AI-agenters förmåga att utnyttja identifierade "endags"-sårbarheter.

En endagssårbarhet är en säkerhetsbrist i ett programvarusystem som officiellt har identifierats och offentliggjorts, men som ännu inte har åtgärdats eller patchats av programvarans skapare.

Under denna tid förblir programvaran sårbar, och dåliga aktörer med rätt kompetens kan dra nytta av den.

När en endagssårbarhet identifieras beskrivs den i detalj med hjälp av CVE-standarden (Common Vulnerabilities and Exposures). CVE är tänkt att lyfta fram detaljerna i de sårbarheter som behöver åtgärdas, men låter också skurkarna veta var säkerhetsluckorna finns.

Experimentet

Forskarna skapade AI-agenter som drivs av GPT-4, GPT-3.5 och 8 andra LLM:er med öppen källkod.

De gav agenterna tillgång till verktyg, CVE-beskrivningar och användning av ReAct-agentramverket. ReAct-ramverket överbryggar klyftan så att LLM kan interagera med annan programvara och andra system.

Systemdiagram över LLM-agenten. Källa: arXiv

Forskarna skapade en referensuppsättning med 15 verkliga endagssårbarheter och satte agenterna som mål att försöka utnyttja dem på egen hand.

GPT-3.5 och modellerna med öppen källkod misslyckades alla i dessa försök, men GPT-4 lyckades utnyttja 87% av endagssårbarheterna.

Efter att CVE-beskrivningen tagits bort sjönk framgångsgraden från 87% till 7%. Detta tyder på att GPT-4 kan utnyttja sårbarheter när de förses med CVE-detaljerna, men inte är särskilt bra på att identifiera sårbarheterna utan denna vägledning.

Konsekvenser

Cyberbrottslighet och hackning brukade kräva speciella färdigheter, men AI sänker ribban. Forskarna sa att det bara krävdes 91 rader kod för att skapa deras AI-agent.

I takt med att AI-modellerna utvecklas kommer den kompetensnivå som krävs för att utnyttja sårbarheter i cybersäkerheten att fortsätta minska. Kostnaden för att skala upp dessa autonoma attacker kommer också att fortsätta sjunka.

När forskarna räknade API-kostnaderna för sitt experiment hade deras GPT-4-agent ådragit sig $8,80 per exploatering. De uppskattar att använda en cybersäkerhetsexpert som debiterar $50 per timme skulle fungera på $25 per exploatering.

Det innebär att det redan är 2,8 gånger billigare att använda en LLM-agent än mänsklig arbetskraft och mycket lättare att skala upp än att hitta mänskliga experter. När GPT-5 och andra mer kraftfulla LLM-agenter släpps kommer dessa funktioner och kostnadsskillnader bara att öka.

Forskarna säger att deras resultat "belyser behovet av att den bredare cybersäkerhetsgemenskapen och LLM-leverantörer tänker noga över hur man integrerar LLM-agenter i defensiva åtgärder och om deras utbredda utplacering."

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×
 
 

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI


 

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".



 
 

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar