President Biden undertegnet i oktober en ordre som ga National Institute of Standards and Technology (NIST) i oppdrag å forske på hvordan man kan teste og analysere sikkerheten til AI-modeller. RAND Corporations innflytelse på NIST er under gransking.
RAND er en innflytelsesrik tenketank med dype bånd til teknologimilliardærer og AI-aktører på linje med "effektiv altruisme"-bevegelsen. Nylig ble det kjent at RAND spilte en viktig rolle som rådgiver i utformingen av Bidens ordre om AI-sikkerhet.
Den amerikanske kongressens komité for vitenskap, romfart og teknologi har uttrykt sin bekymring i et brev over hvordan NIST utfører sitt mandat, og hvordan forskning fra grupper som RAND kan påvirke arbeidet.
I brevet, som var adressert til NIST, sto det at komiteen var "bekymret for hvordan AISI vil finansiere eksterne organisasjoner og åpenheten rundt disse tildelingene".
Hvem er rådgivere for AISI?
NIST har opprettet Artificial Intelligence Safety Institute (AISI) og vil sannsynligvis sette ut mye av forskningen på AI-sikkerhet til andre. Hvem skal utføre forskningen? NIST sier ikke hvem, men to grupper har angivelig blitt engasjert av instituttet.
Komiteens brev nevnte ikke RAND ved navn, men en henvisning til en rapport fra tenketanken gjør det klart at de er bekymret for at RAND kan fortsette å utøve sin innflytelse på AI-regulering.
I brevet står det: "Organisasjoner peker rutinemessig på betydelige spekulative fordeler eller risikoer ved AI-systemer, men unnlater å fremlegge bevis for påstandene sine, produserer forskning som ikke kan reproduseres, gjemmer seg bak hemmelighold, bruker evalueringsmetoder som mangler konstruksjonsvaliditet, eller siterer forskning som ikke har gjennomgått robuste vurderingsprosesser, som for eksempel akademisk fagfellevurdering."
For å illustrere poenget lenker artikkelen til forskning fra RAND Corp. med tittelen: "The Operational Risks of AI in Large-Scale Biological Attacks". Rapporten konkluderte med at LLM-er "kan bistå i planleggingen og gjennomføringen av et biologisk angrep".
Hvordan vil dette påvirke reguleringen av AI?
Motivasjonen bak den unyanserte AI-frykten i RANDs forskning blir tydeligere når man følger pengene. RAND mottok $15,5 millioner i tilskudd fra Open Philanthropy, en finansieringsorganisasjon som fokuserer på å støtte effektiv altruisme årsaker.
Tilhengerne av effektiv altruisme er blant dem som krever at utviklingen av kunstig intelligens skal stanses eller bremses. Hvis RAND er en av de to organisasjonene som angivelig har fått i oppgave å utføre forskning for AISI, kan vi forvente strengere AI-regulering i nær fremtid.
I komiteens brev heter det: "Ved implementeringen av AISI forventer vi at NIST holder mottakerne av føderale forskningsmidler til AI-sikkerhetsforskning til de samme strenge retningslinjene for vitenskapelig og metodologisk kvalitet som kjennetegner den bredere føderale forskningsvirksomheten."
Med andre ord, bare fordi noen som RAND sier at AI er en eksistensiell risiko, betyr ikke det at det er slik.
Vil NIST invitere innspill fra AI-akselerasjonister som Metas VP og Chief AI Scientist Yann LeCun? I et nylig intervju med Wired sa LeCun: "Når teknologien utvikler seg, kan du ikke hindre skurkene i å få tilgang til den. Da er det min gode AI mot din dårlige AI. Måten å ligge foran på, er å utvikle seg raskere. Måten å gjøre fremskritt på er å åpne forskningen, slik at et større fellesskap kan bidra til den."
NISTs arbeid er sterkt fokusert på å foreta nøyaktige målinger. Hvem de velger som rådgivere, vil uunngåelig være avgjørende for reguleringen av kunstig intelligens.