Den bekendtgørelse, som præsident Biden underskrev i oktober, gav National Institute of Standards and Technology (NIST) til opgave at undersøge, hvordan man tester og analyserer AI-modellers sikkerhed. RAND Corporations indflydelse på NIST er ved at blive gransket.
RAND er en indflydelsesrig tænketank med dybe bånd til tech-milliardærer og AI-aktører, der er på linje med bevægelsen for "effektiv altruisme". For nylig kom det frem, at RAND spillede en vigtig rådgivende rolle i udformningen af Bidens bekendtgørelse om AI-sikkerhed.
Den amerikanske kongres' udvalg for videnskab, rumfart og teknologi har givet udtryk for sin bekymring i et brev over, hvordan NIST udfører sit mandat, og hvordan forskning fra grupper som RAND kan påvirke dets arbejde.
I brevet til NIST stod der, at komiteen var "bekymret over, hvordan AISI vil finansiere eksterne organisationer og gennemsigtigheden af disse priser."
Hvem rådgiver AISI?
NIST etablerede Artificial Intelligence Safety Institute (AISI) og vil sandsynligvis outsource en stor del af den forskning, der skal udføres om AI-sikkerhed. Hvem vil det udlicitere forskningen til? Det siger NIST ikke, men to grupper er efter sigende blevet engageret af instituttet.
Udvalgets brev nævner ikke RAND ved navn, men en henvisning til en rapport fra tænketanken gør det klart, at de er bekymrede for, at RAND kan fortsætte med at øve indflydelse på AI-regulering.
I brevet står der: "Organisationer peger rutinemæssigt på betydelige spekulative fordele eller risici ved AI-systemer, men undlader at fremlægge beviser for deres påstande, producerer ikke-reproducerbar forskning, gemmer sig bag hemmeligholdelse, bruger evalueringsmetoder, der mangler konstruktionsvaliditet, eller citerer forskning, der ikke har gennemgået robuste gennemgangsprocesser, såsom akademisk peer review."
For at illustrere sin pointe linker avisen til forskning fra RAND Corp. med titlen: "The Operational Risks of AI in Large-Scale Biological Attacks." Rapporten konkluderede, at LLM'er "kunne hjælpe med at planlægge og udføre et biologisk angreb."
Hvordan vil det påvirke reguleringen af AI?
Motivationen bag den unuancerede AI-frygt i RAND's forskning bliver tydeligere, når man følger pengene. RAND modtog $15,5 millioner i tilskud fra Open Philanthropy, en finansieringsorganisation med fokus på at støtte effektiv altruisme årsager.
Tilhængere af effektiv altruisme er blandt de mest højlydte stemmer, der kræver et stop eller en opbremsning i udviklingen af AI. Hvis RAND er en af de to organisationer, der angiveligt har fået til opgave at lave forskning for AISI, så kan vi forvente en strammere AI-regulering i den nærmeste fremtid.
I udvalgets brev stod der: "Ved implementeringen af AISI forventer vi, at NIST holder modtagerne af føderale forskningsmidler til AI-sikkerhedsforskning op på de samme strenge retningslinjer for videnskabelig og metodologisk kvalitet, som kendetegner den bredere føderale forskningsvirksomhed."
Med andre ord: Bare fordi nogen som RAND siger, at AI er en eksistentiel risiko, er det ikke ensbetydende med, at det er det.
Vil NIST invitere input fra AI-accelerationister som Metas VP og Chief AI Scientist Yann LeCun? I et nyligt interview med Wired sagde LeCun: "Når teknologien udvikler sig, kan man ikke forhindre de onde i at få adgang til den. Så er det min gode AI mod din dårlige AI. Måden at holde sig foran på er at udvikle sig hurtigere. Måden at komme hurtigere frem på er at åbne forskningen, så et større fællesskab kan bidrage til den."
NIST's arbejde er stærkt fokuseret på at foretage nøjagtige målinger. Hvem de vælger som rådgivere, vil uundgåeligt få betydning for reguleringen af AI.