En rapport fra tenketanken RAND har konkludert med at dagens LLM-er ikke øker risikoen for et biologisk angrep fra en ikke-statlig aktør i nevneverdig grad.
I oktober i fjor utga den samme forskergruppen en rapport som tok opp muligheten for at LLM-er "kan bistå i planleggingen og gjennomføringen av et biologisk angrep". I rapporten ble det understreket at risikoen for at dette skulle skje i praksis, måtte undersøkes nærmere.
Rapporten "The Operational Risks of AI in Large-Scale Biological Attacks" fra oktober ble kritisert av enkelte på e/acc-siden av "AI er farlig"-fløyen. Chief AI Scientist hos Meta Yann LeCun sa at rapporten overforenklet hva som skal til for å lage et biovåpen.
Kanskje en LLM kan spare deg for litt tid, i stedet for å søke etter instruksjoner for bygging av biovåpen på en søkemotor.
Men vet du hvordan du skal gjøre det harde laboratoriearbeidet som kreves? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2. november 2023
Vi er OK for øyeblikket
Den siste RAND rapport med tittelen "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekreftet LeCuns vurdering og tok litt vind ut av seilene til dem som står på den effektive altruistiske siden av midtgangen.
Forskerne, ledet av seniorforsker RAND Ingeniør Christopher A. Mouton, kjørte en red-teaming-øvelse for å se hvordan en ondsinnet ikke-statlig aktør kunne bruke en LLM til å bygge et biologisk våpen.
Deltakerne fikk i oppgave å planlegge et biologisk angrep, der noen hadde tilgang til internett og en LLM, mens andre bare hadde tilgang til internett. De oppga ikke hvilke LLM-er som ble brukt.
Resultatet var at det ikke var "noen statistisk signifikant forskjell i levedyktigheten til planene som ble generert med eller uten LLM-assistanse". ChatGPT kommer med andre ord ikke til å fortelle deg noe du ikke allerede kan finne på Google.
Faktisk viste resultatene at planene som ble utviklet av teamene som brukte en LLM, var marginalt mindre levedyktige enn planene til teamene som bare hadde tilgang til internett. Det er betryggende at ingen av teamene klarte å komme opp med en plan for et bioangrep som faktisk var gjennomførbar.
Etter hvert som AI-modellene blir mer intelligente, kan dette endre seg. Mouton sa: "Bare fordi dagens LLM-er ikke er i stand til å tette kunnskapsgapet som trengs for å legge til rette for planlegging av angrep med biologiske våpen, utelukker det ikke at de kan være i stand til det i fremtiden."
Kan nye AI-verktøy - spesielt store språkmodeller (LLM) - brukes til å iverksette et storstilt biologisk angrep?
En ny RAND-studie undersøker dette spørsmålet gjennom en øvelse med røde lag. Her er resultatene. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25. januar 2024
Behov for mer forskning
Rapporten erkjente at forskningen ikke kunne fastslå hvor stort dette kunnskapsgapet var. Mouton sa at videre forskning på dette var viktig "fordi AI-teknologi er tilgjengelig for alle - inkludert farlige ikke-statlige aktører - og den utvikler seg raskere enn myndighetene kan holde tritt med."
Folk som presser på for utviklingen av AGI sier at potensialet for en superintelligent AI er reelt og oppnåelig. Men mange av disse menneskene vil være de som nå sier: "Hva var det jeg sa", og som håner tanken på at AI kan utgjøre en risiko som den RAND har undersøkt.
Vi trenger nok ikke å løpe rundt og rope "Himmelen faller ned!", men å si at en kunstig intelligens som er smartere enn oss, ikke potensielt vil gjøre det mulig for dårlige aktører, er også uvitende. Og farlig.