En rapport från tankesmedjan RAND har dragit slutsatsen att nuvarande LLM inte på ett meningsfullt sätt ökar risken för en biologisk attack från en icke-statlig aktör.
I oktober förra året släppte samma forskargrupp en rapport som tog upp möjligheten att LLM:er "skulle kunna bistå i planeringen och genomförandet av en biologisk attack". I rapporten konstaterades dock att risken för att detta skulle inträffa i praktiken behövde undersökas ytterligare.
Rapporten från oktober med titeln "The Operational Risks of AI in Large-Scale Biological Attacks" kritiserades av vissa på e/acc-sidan av "AI är farligt"-gången. Chief AI Scientist på Meta Yann LeCun sa att rapporten överförenklade vad som krävs för att skapa ett biovapen.
Kanske kan en LLM spara dig lite tid, jämfört med att söka efter instruktioner för att bygga biovapen på en sökmotor.
Men vet du hur du ska göra det hårda labbarbete som krävs? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2 november 2023
Vi är okej för tillfället
Den senaste rapporten från RAND rapport med titeln "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekräftade LeCuns bedömning och tog lite vind ur seglen för dem på den effektiva altruistiska sidan av gången.
Forskarna, som leddes av Senior RAND Engineer Christopher A. Mouton, genomförde en red-teaming-övning för att se hur en illasinnad icke-statlig aktör skulle kunna använda en LLM för att bygga ett biologiskt vapen.
Deltagarna fick i uppgift att planera en biologisk attack där vissa hade tillgång till internet och en LLM, medan andra bara hade tillgång till internet. De namngav inte de LLM:er som användes.
Resultatet var att det inte fanns "någon statistiskt signifikant skillnad i genomförbarheten av planer som genererats med eller utan LLM-hjälp". Med andra ord kommer ChatGPT inte att berätta något för dig som du inte redan kan googla.
I själva verket visade resultaten att de planer som tagits fram av de team som använde sig av LLM var marginellt mindre genomförbara än de som bara hade tillgång till internet. Det är betryggande att inget team kunde komma på en plan för en bioattack som faktiskt var genomförbar.
I takt med att AI-modellerna blir mer intelligenta kan detta förändras. Mouton säger: "Bara för att dagens LLM:er inte kan överbrygga den kunskapslucka som behövs för att underlätta planeringen av attacker med biologiska vapen, utesluter det inte att de kan göra det i framtiden."
Kan nya AI-verktyg - i synnerhet stora språkmodeller (LLM) - användas för att genomföra en storskalig biologisk attack?
En ny RAND-studie utforskar denna fråga genom en övning med ett rött team. Här är resultaten. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25 januari 2024
Mer forskning behövs
I rapporten medges att forskningen inte har kunnat fastställa hur stor denna kunskapslucka är. Mouton sa att ytterligare forskning om detta var viktigt "eftersom AI-teknik är tillgänglig för alla - inklusive farliga icke-statliga aktörer - och den utvecklas snabbare än regeringarna kan hålla jämna steg."
Människor som driver på utvecklingen av AGI säger att potentialen för en superintelligent AI är verklig och möjlig att uppnå. Men många av dessa människor kommer att vara de som nu säger "vad var det jag sa" och hånar tanken på att AI skulle kunna utgöra en risk som den som RAND undersökte.
Vi behöver nog inte springa runt och skrika "Himlen faller!", men att säga att en artificiell intelligens som är smartare än oss inte potentiellt kan möjliggöra för dåliga aktörer är också okunnigt. Och farligt.