En rapport fra tænketanken RAND har konkluderet, at de nuværende LLM'er ikke øger risikoen for et biologisk angreb fra en ikke-statslig aktør i nævneværdig grad.
I oktober sidste år udgav den samme gruppe forskere en rapport, der pegede på muligheden for, at LLM'er "kunne hjælpe med at planlægge og udføre et biologisk angreb". Rapporten bemærkede dog, at risikoen for, at det ville ske i praksis, krævede yderligere forskning.
Rapporten fra oktober med titlen "The Operational Risks of AI in Large-Scale Biological Attacks" blev kritiseret af nogle på e/acc-siden af "AI er farligt"-gangen. Chief AI Scientist hos Meta Yann LeCun sagde, at rapporten oversimplificerede, hvad der skal til for at skabe et biovåben.
Måske kan en LLM spare dig for lidt tid i forhold til at søge efter instruktioner til bygning af biovåben på en søgemaskine.
Men ved du så, hvordan du skal udføre det hårde laboratoriearbejde, der kræves? https://t.co/QnnZqUOP6X- Yann LeCun (@ylecun) 2. november 2023
Vi er OK indtil videre
Den seneste RAND Rapport med titlen "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekræftede LeCuns vurdering og tog lidt vind ud af sejlene på dem, der er på den effektive altruistiske side af midtergangen.
Forskerne, der ledes af Senior RAND Ingeniør Christopher A. Mouton, gennemførte en red-teaming-øvelse for at se, hvordan en ondsindet ikke-statslig aktør kunne bruge en LLM til at bygge et biologisk våben.
Deltagerne fik til opgave at planlægge et biologisk angreb, hvor nogle havde adgang til internettet og en LLM, mens andre kun havde adgang til internettet. De navngav ikke de LLM'er, der blev brugt.
Resultatet var, at der "ikke var nogen statistisk signifikant forskel på levedygtigheden af planer genereret med eller uden LLM-assistance." Med andre ord vil ChatGPT ikke fortælle dig noget, du ikke allerede kan google dig frem til.
Faktisk viste deres resultater, at de planer, der blev udviklet af de hold, der brugte en LLM, var marginalt mindre levedygtige end dem, der kun havde adgang til internettet. Det er betryggende, at intet hold var i stand til at komme med en plan for et bioangreb, der rent faktisk var brugbar.
Efterhånden som AI-modellerne bliver mere intelligente, kan det ændre sig. Mouton sagde: "Bare fordi nutidens LLM'er ikke er i stand til at lukke det videnshul, der er nødvendigt for at lette planlægningen af angreb med biologiske våben, udelukker det ikke muligheden for, at de kan være i stand til det i fremtiden."
Kan nye AI-værktøjer - især store sprogmodeller (LLM'er) - bruges til at iværksætte et biologisk angreb i stor skala?
En ny RAND-undersøgelse undersøger dette spørgsmål gennem en øvelse med et rødt hold. Her er resultaterne. 🧵 https://t.co/foFmWltIuQ
- RAND (@RANDCorporation) 25. januar 2024
Der er brug for mere forskning
Rapporten erkendte, at forskningen ikke kunne afgøre, hvor stor denne videnskløft var. Mouton sagde, at yderligere forskning i dette var vigtig, "fordi AI-teknologi er tilgængelig for alle - inklusive farlige ikke-statslige aktører - og den udvikler sig hurtigere, end regeringerne kan følge med."
Folk, der presser på for at udvikle AGI siger, at potentialet for en superintelligent AI er reelt og opnåeligt. Men mange af disse mennesker vil være dem, der nu siger: "Hvad sagde jeg" og håner tanken om, at AI kan udgøre en risiko som den, RAND undersøgte.
Vi behøver nok ikke at løbe rundt og råbe "Himlen falder ned!", men at sige, at en kunstig intelligens, der er klogere end os, ikke potentielt vil gøre det muligt for dårlige aktører, er også uvidende. Og farligt.