Het uitvoeringsbevel dat president Biden in oktober ondertekende, gaf het National Institute of Standards and Technology (NIST) de opdracht om te onderzoeken hoe de veiligheid van AI-modellen getest en geanalyseerd kan worden. De invloed van de RAND Corporation op het NIST wordt onder de loep genomen.
RAND is een invloedrijke denktank met nauwe banden met technologiemiljardairs en AI-spelers die zich aansluiten bij de beweging voor "effectief altruïsme". Onlangs kwam aan het licht dat RAND speelde een belangrijke adviserende rol bij het vormgeven van Biden's uitvoerend bevel over AI-veiligheid.
De Commissie Wetenschap, Ruimtevaart en Technologie van het Amerikaanse Congres heeft haar bezorgdheid geuit in een brief over hoe het NIST zijn mandaat uitvoert en hoe onderzoek van groepen als RAND zijn werk kan beïnvloeden.
In de brief, gericht aan het NIST, staat dat de commissie "bezorgd is over de manier waarop de AISI externe organisaties zal financieren en de transparantie van die toekenningen".
Wie adviseert de AISI?
Het NIST heeft het Artificial Intelligence Safety Institute (AISI) opgericht en zal waarschijnlijk veel van het onderzoek naar AI-veiligheid uitbesteden. Aan wie zal het onderzoek worden uitbesteed? Het NIST zegt het niet, maar naar verluidt heeft het instituut twee groepen in de arm genomen.
In de brief van de commissie wordt RAND niet bij naam genoemd, maar een verwijzing naar een rapport van de denktank maakt duidelijk dat ze zich zorgen maken dat RAND invloed kan blijven uitoefenen op AI-regulering.
In de brief staat: "Organisaties wijzen routinematig op significante speculatieve voordelen of risico's van AI-systemen, maar leveren geen bewijs voor hun beweringen, produceren niet-reproduceerbaar onderzoek, verschuilen zich achter geheimhouding, gebruiken evaluatiemethoden zonder constructvaliditeit of halen onderzoek aan dat geen robuuste beoordelingsprocessen heeft doorlopen, zoals academische collegiale toetsing."
Ter illustratie verwijst het document naar een onderzoek van RAND Corp. getiteld: "The Operational Risks of AI in Large-Scale Biological Attacks". In dat rapport werd geconcludeerd dat LLM's "zouden kunnen helpen bij de planning en uitvoering van een biologische aanval".
Hoe zal dit de AI-regelgeving beïnvloeden?
De motivatie achter de ongenuanceerde AI-angstzaaierij in het onderzoek van RAND wordt duidelijker als je het geld volgt. RAND ontving $15,5 miljoen aan subsidies van Open Philanthropy, een financieringsorganisatie die zich richt op het ondersteunen van effectief altruïsme oorzaken.
Voorstanders van effectief altruïsme behoren tot de luidste stemmen die oproepen tot het stoppen of afremmen van de ontwikkeling van AI. Als RAND een van de twee organisaties is die naar verluidt onderzoek moeten doen voor de AISI, dan kunnen we in de nabije toekomst strengere AI-regulering verwachten.
In de brief van de commissie staat: "Bij de implementatie van de AISI verwachten we dat NIST de ontvangers van federale onderzoeksgelden voor AI-veiligheidsonderzoek houdt aan dezelfde strenge richtlijnen voor wetenschappelijke en methodologische kwaliteit die kenmerkend zijn voor de bredere federale onderzoeksactiviteiten."
Met andere woorden, het is niet omdat iemand als RAND zegt dat AI een existentieel risico is, dat het ook zo is.
Zal het NIST input vragen van AI-versnellers zoals Meta's VP en Chief AI Scientist Yann LeCun? In een recent interview met Wired zei LeCun: "Wanneer technologie zich ontwikkelt, kun je niet voorkomen dat de slechteriken er toegang toe hebben. Dan is het mijn goede AI tegen jouw slechte AI. De manier om voorop te blijven is om sneller vooruitgang te boeken. De manier om sneller vooruitgang te boeken is om het onderzoek open te stellen, zodat de grotere gemeenschap eraan bijdraagt."
Het werk van het NIST is sterk gericht op het doen van nauwkeurige metingen. Wie ze als adviseurs kiezen zal onvermijdelijk de weegschaal van AI-regulering doen doorslaan.