Den verkställande order som president Biden undertecknade i oktober gav National Institute of Standards and Technology (NIST) i uppdrag att undersöka hur man ska testa och analysera AI-modellers säkerhet. RAND Corporations inflytande på NIST är under granskning.
RAND är en inflytelserik tankesmedja med djupa band till teknikmiljardärer och AI-rollspelare som är anpassade till rörelsen "effektiv altruism". Det kom nyligen fram att RAND spelade en viktig rådgivande roll i utformningen av Bidens exekutiva order om AI-säkerhet.
Den amerikanska kongressens utskott för vetenskap, rymd och teknik har uttryckt sin oro i ett brev över hur NIST utför sitt uppdrag och hur forskning från grupper som RAND kan påverka dess arbete.
I brevet, som var adresserat till NIST, stod det att kommittén var "bekymrad över hur AISI kommer att finansiera externa organisationer och över insynen i dessa priser".
Vem är rådgivare till AISI?
NIST inrättade Artificial Intelligence Safety Institute (AISI) och kommer sannolikt att lägga ut en stor del av den forskning som behövs om AI-säkerhet på entreprenad. Vem kommer man att lägga ut forskningen på? NIST säger inte det, men två grupper har enligt uppgift anlitats av institutet.
Utskottets brev nämnde inte RAND vid namn men en hänvisning till en rapport från tankesmedjan gör det klart att de är oroliga för att RAND kan fortsätta att utöva sitt inflytande på AI-reglering.
I brevet stod det: "Organisationer pekar rutinmässigt på betydande spekulativa fördelar eller risker med AI-system men misslyckas med att bevisa sina påståenden, producerar icke-reproducerbar forskning, gömmer sig bakom sekretess, använder utvärderingsmetoder som saknar konstruktionsvaliditet eller citerar forskning som inte har gått igenom robusta granskningsprocesser, till exempel akademisk peer review."
För att illustrera sin poäng länkar tidningen till forskning från RAND Corp. med titeln: "The Operational Risks of AI in Large-Scale Biological Attacks". I den rapporten drogs slutsatsen att LLM "skulle kunna hjälpa till i planeringen och genomförandet av en biologisk attack".
Hur kommer detta att påverka regleringen av AI?
Motivationen bakom den osubtila AI-fearmongeringen i RAND: s forskning blir tydligare när du följer pengarna. RAND fick $15,5 miljoner i bidrag från Open Philanthropy, en finansieringsorganisation som fokuserar på att stödja effektiv altruism orsaker.
Förespråkare för effektiv altruism är bland de mest högljudda rösterna som kräver att utvecklingen av AI stoppas eller bromsas. Om RAND är en av de två organisationer som enligt uppgift har till uppgift att bedriva forskning för AISI, kan vi förvänta oss strängare AI-reglering inom en snar framtid.
I utskottets brev stod det: "När AISI implementeras förväntar vi oss att NIST ska hålla mottagarna av federala forskningsanslag för AI-säkerhetsforskning till samma rigorösa riktlinjer för vetenskaplig och metodologisk kvalitet som kännetecknar det bredare federala forskningsföretaget."
Med andra ord, bara för att någon som RAND säger att AI är en existentiell risk, betyder det inte att det är så.
Kommer NIST att bjuda in input från AI-accelerationister som Meta's VP och Chief AI Scientist Yann LeCun? I en nyligen intervju med Wired sa LeCun: "När tekniken utvecklas kan du inte hindra skurkarna från att få tillgång till den. Då är det min bra AI mot din dåliga AI. Sättet att hålla sig framme är att göra snabbare framsteg. Det gör man genom att öppna upp forskningen så att fler kan bidra till den."
NIST:s arbete är starkt inriktat på att göra korrekta mätningar. Vilka de väljer som rådgivare kommer oundvikligen att få betydelse för regleringen av AI.