RAND-rapport zegt dat LLM's het risico op biologische aanvallen niet vergroten

26 januari 2024

In een rapport van de denktank RAND wordt geconcludeerd dat de huidige LLM's het risico op een biologische aanval door een niet-statelijke actor niet significant verhogen.

In oktober vorig jaar bracht dezelfde groep onderzoekers een rapport uit waarin de mogelijkheid werd geopperd dat LLM's "zouden kunnen helpen bij de planning en uitvoering van een biologische aanval". In dat rapport werd wel opgemerkt dat het risico dat dit in de praktijk zou gebeuren verder moest worden onderzocht.

Het rapport uit oktober getiteld "The Operational Risks of AI in Large-Scale Biological Attacks" werd bekritiseerd door sommigen aan de e/acc-kant van het 'AI is gevaarlijk'-pad. Het hoofd van de AI-wetenschapper bij Meta, Yann LeCun, zei dat het rapport te eenvoudig weergeeft wat er nodig is om een biowapen te maken.

Voorlopig gaat het goed

De nieuwste RAND verslag getiteld "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" bevestigde LeCun's beoordeling en nam wat wind uit de zeilen van degenen aan de effectieve altruïstische kant van het gangpad.

De onderzoekers, geleid door Senior RAND Ingenieur Christopher A. Mouton, voerde een red-teaming oefening uit om te zien hoe een kwaadwillende niet-statelijke actor een LLM zou kunnen gebruiken om een biologisch wapen te bouwen.

De deelnemers kregen de opdracht om een biologische aanval te plannen, waarbij sommigen toegang hadden tot het internet en een LLM, terwijl anderen alleen toegang hadden tot het internet. Ze noemden niet welke LLM's werden gebruikt.

Het resultaat was dat er "geen statistisch significant verschil was in de levensvatbaarheid van plannen gegenereerd met of zonder hulp van LLM." Met andere woorden, ChatGPT gaat je niets vertellen wat je niet al kunt Googlen.

Uit hun resultaten bleek zelfs dat de plannen van de teams die gebruik maakten van een LLM marginaal minder levensvatbaar waren dan die van de teams die alleen toegang hadden tot het internet. Het is geruststellend dat geen enkel team in staat was om met een bio-aanvalsplan te komen dat echt uitvoerbaar was.

Naarmate AI-modellen intelligenter worden, zou dat kunnen veranderen. Mouton zei: "Het feit dat de LLM's van vandaag niet in staat zijn om de kenniskloof te dichten die nodig is om de planning van aanvallen met biologische wapens te vergemakkelijken, sluit niet uit dat ze dat in de toekomst wel kunnen."

Meer onderzoek nodig

Het rapport erkent dat het onderzoek niet heeft vastgesteld hoe groot die kenniskloof is. Mouton zei dat verder onderzoek hiernaar belangrijk was "omdat AI-technologie voor iedereen beschikbaar is - ook voor gevaarlijke niet-statelijke actoren - en zich sneller ontwikkelt dan regeringen kunnen bijhouden".

Mensen die aandringen op de ontwikkeling van AGI zeggen dat het potentieel voor een superintelligente AI reëel en haalbaar is. Maar veel van die mensen zullen nu zeggen: 'Ik zei het toch' en spotten met het idee dat AI een risico zou kunnen vormen zoals RAND heeft onderzocht.

We hoeven waarschijnlijk niet rond te rennen en te roepen 'De hemel valt!', maar om te zeggen dat een kunstmatige intelligentie die slimmer is dan wij niet mogelijk slechte actoren in staat zal stellen, is ook onwetend. En gevaarlijk.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden