RAND-rapport säger att LLM inte ökar risken för biologiska attacker

26 januari 2024

En rapport från tankesmedjan RAND har dragit slutsatsen att nuvarande LLM inte på ett meningsfullt sätt ökar risken för en biologisk attack från en icke-statlig aktör.

I oktober förra året släppte samma forskargrupp en rapport som tog upp möjligheten att LLM:er "skulle kunna bistå i planeringen och genomförandet av en biologisk attack". I rapporten konstaterades dock att risken för att detta skulle inträffa i praktiken behövde undersökas ytterligare.

Rapporten från oktober med titeln "The Operational Risks of AI in Large-Scale Biological Attacks" kritiserades av vissa på e/acc-sidan av "AI är farligt"-gången. Chief AI Scientist på Meta Yann LeCun sa att rapporten överförenklade vad som krävs för att skapa ett biovapen.

Vi är okej för tillfället

Den senaste rapporten från RAND rapport med titeln "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekräftade LeCuns bedömning och tog lite vind ur seglen för dem på den effektiva altruistiska sidan av gången.

Forskarna, som leddes av Senior RAND Engineer Christopher A. Mouton, genomförde en red-teaming-övning för att se hur en illasinnad icke-statlig aktör skulle kunna använda en LLM för att bygga ett biologiskt vapen.

Deltagarna fick i uppgift att planera en biologisk attack där vissa hade tillgång till internet och en LLM, medan andra bara hade tillgång till internet. De namngav inte de LLM:er som användes.

Resultatet var att det inte fanns "någon statistiskt signifikant skillnad i genomförbarheten av planer som genererats med eller utan LLM-hjälp". Med andra ord kommer ChatGPT inte att berätta något för dig som du inte redan kan googla.

I själva verket visade resultaten att de planer som tagits fram av de team som använde sig av LLM var marginellt mindre genomförbara än de som bara hade tillgång till internet. Det är betryggande att inget team kunde komma på en plan för en bioattack som faktiskt var genomförbar.

I takt med att AI-modellerna blir mer intelligenta kan detta förändras. Mouton säger: "Bara för att dagens LLM:er inte kan överbrygga den kunskapslucka som behövs för att underlätta planeringen av attacker med biologiska vapen, utesluter det inte att de kan göra det i framtiden."

Mer forskning behövs

I rapporten medges att forskningen inte har kunnat fastställa hur stor denna kunskapslucka är. Mouton sa att ytterligare forskning om detta var viktigt "eftersom AI-teknik är tillgänglig för alla - inklusive farliga icke-statliga aktörer - och den utvecklas snabbare än regeringarna kan hålla jämna steg."

Människor som driver på utvecklingen av AGI säger att potentialen för en superintelligent AI är verklig och möjlig att uppnå. Men många av dessa människor kommer att vara de som nu säger "vad var det jag sa" och hånar tanken på att AI skulle kunna utgöra en risk som den som RAND undersökte.

Vi behöver nog inte springa runt och skrika "Himlen faller!", men att säga att en artificiell intelligens som är smartare än oss inte potentiellt kan möjliggöra för dåliga aktörer är också okunnigt. Och farligt.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar