RAND-rapport sier at LLM-er ikke øker risikoen for biologiske angrep

26. januar 2024

En rapport fra tenketanken RAND har konkludert med at dagens LLM-er ikke øker risikoen for et biologisk angrep fra en ikke-statlig aktør i nevneverdig grad.

I oktober i fjor utga den samme forskergruppen en rapport som tok opp muligheten for at LLM-er "kan bistå i planleggingen og gjennomføringen av et biologisk angrep". I rapporten ble det understreket at risikoen for at dette skulle skje i praksis, måtte undersøkes nærmere.

Rapporten "The Operational Risks of AI in Large-Scale Biological Attacks" fra oktober ble kritisert av enkelte på e/acc-siden av "AI er farlig"-fløyen. Chief AI Scientist hos Meta Yann LeCun sa at rapporten overforenklet hva som skal til for å lage et biovåpen.

Vi er OK for øyeblikket

Den siste RAND rapport med tittelen "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekreftet LeCuns vurdering og tok litt vind ut av seilene til dem som står på den effektive altruistiske siden av midtgangen.

Forskerne, ledet av seniorforsker RAND Ingeniør Christopher A. Mouton, kjørte en red-teaming-øvelse for å se hvordan en ondsinnet ikke-statlig aktør kunne bruke en LLM til å bygge et biologisk våpen.

Deltakerne fikk i oppgave å planlegge et biologisk angrep, der noen hadde tilgang til internett og en LLM, mens andre bare hadde tilgang til internett. De oppga ikke hvilke LLM-er som ble brukt.

Resultatet var at det ikke var "noen statistisk signifikant forskjell i levedyktigheten til planene som ble generert med eller uten LLM-assistanse". ChatGPT kommer med andre ord ikke til å fortelle deg noe du ikke allerede kan finne på Google.

Faktisk viste resultatene at planene som ble utviklet av teamene som brukte en LLM, var marginalt mindre levedyktige enn planene til teamene som bare hadde tilgang til internett. Det er betryggende at ingen av teamene klarte å komme opp med en plan for et bioangrep som faktisk var gjennomførbar.

Etter hvert som AI-modellene blir mer intelligente, kan dette endre seg. Mouton sa: "Bare fordi dagens LLM-er ikke er i stand til å tette kunnskapsgapet som trengs for å legge til rette for planlegging av angrep med biologiske våpen, utelukker det ikke at de kan være i stand til det i fremtiden."

Behov for mer forskning

Rapporten erkjente at forskningen ikke kunne fastslå hvor stort dette kunnskapsgapet var. Mouton sa at videre forskning på dette var viktig "fordi AI-teknologi er tilgjengelig for alle - inkludert farlige ikke-statlige aktører - og den utvikler seg raskere enn myndighetene kan holde tritt med."

Folk som presser på for utviklingen av AGI sier at potensialet for en superintelligent AI er reelt og oppnåelig. Men mange av disse menneskene vil være de som nå sier: "Hva var det jeg sa", og som håner tanken på at AI kan utgjøre en risiko som den RAND har undersøkt.

Vi trenger nok ikke å løpe rundt og rope "Himmelen faller ned!", men å si at en kunstig intelligens som er smartere enn oss, ikke potensielt vil gjøre det mulig for dårlige aktører, er også uvitende. Og farlig.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×
 
 

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI


 

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".



 
 

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser