Hackere forsøger at bryde AI-modeller på DEFCON-konference

15. august 2023

DEFCON AI LLM-konference om hacking

DEFCON er verdens ældste og største årlige hackerkonference. I år var der særligt fokus på red-teaming, eller simulerede angreb, på AI-sprogmodeller for at identificere risici og problemer med nøjagtigheden.

Det Hvide Hus afspejlede den amerikanske regerings bekymring over sikkerheden ved AI-sprogmodeller ved at sponsorere begivenheden, som blev afholdt i den forgangne weekend i Las Vegas.

Ved arrangementet konkurrerede omkring 2.200 hackere om at få 8 af verdens førende LLM'er til at give unøjagtige eller usikre svar på deres spørgsmål. De AI-chatmodeller, der blev testet, omfattede Llama 2, Stable Chat, ChatGPT, Bard og andre.

De officielle resultater offentliggøres først i februar 2024, hvilket giver udgiverne af modellerne lidt tid til at forsøge at rette de sårbarheder, der blev identificeret under arrangementet. Men nogle eksperter er skeptiske over for, om det overhovedet er muligt at lappe sårbarhederne.

Cybersikkerhedsekspert Gary McGraw sagde: "Det er fristende at lade, som om vi kan drysse noget magisk sikkerhedsstøv på disse systemer, når de er bygget, lappe dem til underkastelse eller skrue særlige sikkerhedsapparater på siden."

Christoph Endres, direktør for det tyske cybersikkerhedsfirma Sequire Technology, præsenterede en artikel, hvor han sagde, at nogle angreb var umulige at forsvare. "Indtil videre har vi ikke fundet en afhjælpning, der virker," sagde han. 

Nogle rapporter om udsatte sårbarheder var ret uskyldige. En deltager, Kennedy Mays, sagde, at hun gik frem og tilbage med en LLM og fik den til at indrømme, at 9 + 10 = 21. Modellen gik med til dette som en del af en "intern joke", men gav senere det forkerte svar uden forbehold.

Deltagerne vidste ikke, hvilken model de var i gang med at teste, så selv anekdotiske beretninger om sårbarheder vil ikke give os indsigt i, hvilken virksomheds model der klarede sig bedst.

Kommentarerne fra Arati Prabhakar, direktør for Det Hvide Hus' kontor for videnskabs- og teknologipolitik, giver os et indblik i, hvor mange sårbarheder der blev afsløret. Hun sagde: "Alle ser ud til at finde en måde at bryde disse systemer på."

Formålet med arrangementet var at få etiske hackere til at identificere problemer, så de kan blive løst. Det er helt sikkert, at der er masser af black hat-hackere, der leder efter sårbarheder, som de kan udnytte. udnyttet i cyberkriminalitet, ikke offentliggjort til rettelse.

Lørdagens program blev afbrudt i utide, efter at en bombetrussel fik sikkerhedsfolkene til at rydde hovedarenaen. Sikkerhedsfolkene gennemsøgte bygningen og fandt ingen bomber, så søndagens program fortsatte, om end med en følelse af uro.

Bombetruslen var sandsynligvis bare en syg joke, som på en underlig måde parodierede selve begivenheden. Vi søger fortsat at afsløre farerne ved AI og kan forsøge at rette de fejl, vi identificerer. 

Men selv når eksperterne ikke finder en specifik trussel, giver potentialet for den os stadig en følelse af ubehag. Vi sidder tilbage og spørger: "Hvad nu, hvis de har overset noget?"

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser