LLM-Agenten können selbständig eintägige Sicherheitslücken ausnutzen

April 24, 2024
  • Forscher präsentierten KI-Agenten Sicherheitslücken und forderten sie auf, diese auszunutzen
  • Ein GPT-4-Agent konnte 87% der getesteten Schwachstellen selbstständig ausnutzen
  • Diese Fähigkeiten könnten es weniger qualifizierten Akteuren ermöglichen, Cyberkriminalität zu begehen.

Forscher der University of Illinois Urbana-Champaign (UIUC) fanden heraus, dass KI-Agenten, die von GPT-4 angetrieben werden, selbstständig Schwachstellen in der Cybersicherheit ausnutzen können.

Da KI-Modelle immer leistungsfähiger werden, bietet ihr doppelter Verwendungszweck das Potenzial für Gutes und Schlechtes gleichermaßen. LLMs wie GPT-4 werden zunehmend zur Begehung von Cyberkriminalität eingesetzt, wobei Google-Prognose dass die KI eine große Rolle bei der Begehung und Verhinderung dieser Angriffe spielen wird.

Die Bedrohung durch KI-gestützte Cyberkriminalität wurde erhöht, da LLMs über einfache Prompt-Response-Interaktionen hinausgehen und als autonome KI-Agenten agieren.

Unter ihr Papiererläuterten die Forscher, wie sie die Fähigkeit von KI-Agenten zur Ausnutzung identifizierter "eintägiger" Sicherheitslücken getestet haben.

Eine Ein-Tages-Schwachstelle ist eine Sicherheitslücke in einem Softwaresystem, die offiziell identifiziert und der Öffentlichkeit bekannt gegeben wurde, aber noch nicht von den Entwicklern der Software behoben oder gepatcht wurde.

Während dieser Zeit bleibt die Software angreifbar, und böswillige Akteure mit den entsprechenden Kenntnissen können dies ausnutzen.

Wenn eine eintägige Sicherheitslücke identifiziert wird, wird sie mit Hilfe des CVE-Standards (Common Vulnerabilities and Exposures) detailliert beschrieben. Der CVE-Standard soll die Besonderheiten der Schwachstellen hervorheben, die behoben werden müssen, aber auch die Bösewichte wissen lassen, wo die Sicherheitslücken sind.

Das Experiment

Die Forscher erstellten KI-Agenten, die auf GPT-4, GPT-3.5 und 8 weiteren Open-Source-LLMs basieren.

Sie ermöglichten den Agenten den Zugang zu Werkzeugen, die CVE-Beschreibungen und die Verwendung des ReAct-Agenten-Frameworks. Das ReAct-Framework überbrückt die Lücke, damit der LLM mit anderer Software und anderen Systemen interagieren kann.

Systemdiagramm des LLM-Agenten. Quelle: arXiv

Die Forscher erstellten eine Reihe von 15 realen eintägigen Sicherheitslücken und setzten die Agenten darauf an, diese selbstständig auszunutzen.

GPT-3.5 und die Open-Source-Modelle scheiterten alle bei diesen Versuchen, aber GPT-4 nutzte 87% der eintägigen Sicherheitslücken erfolgreich aus.

Nachdem die CVE-Beschreibung entfernt wurde, sank die Erfolgsquote von 87% auf 7%. Dies deutet darauf hin, dass GPT-4 Schwachstellen ausnutzen kann, wenn es die CVE-Details erhält, aber nicht sehr gut darin ist, die Schwachstellen ohne diese Anleitung zu identifizieren.

Auswirkungen

Cyberkriminalität und Hacking erforderten früher besondere Fähigkeiten, aber die KI senkt die Hürde. Die Forscher sagten, dass die Erstellung ihres KI-Agenten nur 91 Zeilen Code erforderte.

Mit der Weiterentwicklung von KI-Modellen werden die für die Ausnutzung von Cybersicherheitsschwachstellen erforderlichen Fähigkeiten weiter sinken. Auch die Kosten für die Skalierung dieser autonomen Angriffe werden weiter sinken.

Als die Forscher die API-Kosten für ihr Experiment zusammenrechneten, hatte ihr GPT-4-Agent $8,80 pro Exploit verursacht. Sie schätzen, dass ein Cybersecurity-Experte, der $50 pro Stunde berechnet, auf $25 pro Exploit käme.

Das bedeutet, dass der Einsatz eines LLM-Agenten bereits jetzt 2,8-mal billiger ist als menschliche Arbeit und viel einfacher zu skalieren als die Suche nach menschlichen Experten. Sobald GPT-5 und andere leistungsfähigere LLMs auf den Markt kommen, werden diese Fähigkeiten und Kostenunterschiede nur noch zunehmen.

Die Forscher sagen, dass ihre Ergebnisse "die Notwendigkeit für die breitere Cybersicherheits-Community und LLM-Anbieter unterstreichen, sorgfältig darüber nachzudenken, wie LLM-Agenten in Verteidigungsmaßnahmen integriert werden können und ob sie weit verbreitet eingesetzt werden sollen".

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×
 
 

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus


 

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".



 
 

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen