RAND-rapport siger, at LLM'er ikke øger risikoen for biologiske angreb

26. januar 2024

En rapport fra tænketanken RAND har konkluderet, at de nuværende LLM'er ikke øger risikoen for et biologisk angreb fra en ikke-statslig aktør i nævneværdig grad.

I oktober sidste år udgav den samme gruppe forskere en rapport, der pegede på muligheden for, at LLM'er "kunne hjælpe med at planlægge og udføre et biologisk angreb". Rapporten bemærkede dog, at risikoen for, at det ville ske i praksis, krævede yderligere forskning.

Rapporten fra oktober med titlen "The Operational Risks of AI in Large-Scale Biological Attacks" blev kritiseret af nogle på e/acc-siden af "AI er farligt"-gangen. Chief AI Scientist hos Meta Yann LeCun sagde, at rapporten oversimplificerede, hvad der skal til for at skabe et biovåben.

Vi er OK indtil videre

Den seneste RAND Rapport med titlen "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bekræftede LeCuns vurdering og tog lidt vind ud af sejlene på dem, der er på den effektive altruistiske side af midtergangen.

Forskerne, der ledes af Senior RAND Ingeniør Christopher A. Mouton, gennemførte en red-teaming-øvelse for at se, hvordan en ondsindet ikke-statslig aktør kunne bruge en LLM til at bygge et biologisk våben.

Deltagerne fik til opgave at planlægge et biologisk angreb, hvor nogle havde adgang til internettet og en LLM, mens andre kun havde adgang til internettet. De navngav ikke de LLM'er, der blev brugt.

Resultatet var, at der "ikke var nogen statistisk signifikant forskel på levedygtigheden af planer genereret med eller uden LLM-assistance." Med andre ord vil ChatGPT ikke fortælle dig noget, du ikke allerede kan google dig frem til.

Faktisk viste deres resultater, at de planer, der blev udviklet af de hold, der brugte en LLM, var marginalt mindre levedygtige end dem, der kun havde adgang til internettet. Det er betryggende, at intet hold var i stand til at komme med en plan for et bioangreb, der rent faktisk var brugbar.

Efterhånden som AI-modellerne bliver mere intelligente, kan det ændre sig. Mouton sagde: "Bare fordi nutidens LLM'er ikke er i stand til at lukke det videnshul, der er nødvendigt for at lette planlægningen af angreb med biologiske våben, udelukker det ikke muligheden for, at de kan være i stand til det i fremtiden."

Der er brug for mere forskning

Rapporten erkendte, at forskningen ikke kunne afgøre, hvor stor denne videnskløft var. Mouton sagde, at yderligere forskning i dette var vigtig, "fordi AI-teknologi er tilgængelig for alle - inklusive farlige ikke-statslige aktører - og den udvikler sig hurtigere, end regeringerne kan følge med."

Folk, der presser på for at udvikle AGI siger, at potentialet for en superintelligent AI er reelt og opnåeligt. Men mange af disse mennesker vil være dem, der nu siger: "Hvad sagde jeg" og håner tanken om, at AI kan udgøre en risiko som den, RAND undersøgte.

Vi behøver nok ikke at løbe rundt og råbe "Himlen falder ned!", men at sige, at en kunstig intelligens, der er klogere end os, ikke potentielt vil gøre det muligt for dårlige aktører, er også uvidende. Og farligt.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser