L'ordine esecutivo che il Presidente Biden ha firmato in ottobre ha incaricato il National Institute of Standards and Technology (NIST) di studiare come testare e analizzare la sicurezza dei modelli di IA. L'influenza della RAND Corporation sul NIST è sotto esame.
RAND è un influente think tank con profondi legami con miliardari del settore tecnologico e attori dell'IA allineati con il movimento dell'"altruismo efficace". Recentemente è emerso che RAND ha svolto un importante ruolo di consulenza nella definizione dell'ordine esecutivo di Biden sulla sicurezza dell'IA.
Il Comitato del Congresso degli Stati Uniti per la scienza, lo spazio e la tecnologia ha espresso la sua preoccupazione in una lettera su come il NIST sta svolgendo il suo mandato e su come la ricerca di gruppi come RAND possa influenzare il suo lavoro.
La lettera, indirizzata al NIST, diceva che il comitato era "preoccupato per il modo in cui l'AISI finanzierà le organizzazioni esterne e per la trasparenza di questi premi".
Chi è il consulente dell'AISI?
Il NIST ha istituito l'Artificial Intelligence Safety Institute (AISI) e probabilmente esternalizzerà gran parte della ricerca sulla sicurezza dell'intelligenza artificiale. A chi affiderà la ricerca? Il NIST non lo dice, ma secondo quanto riferito, due gruppi sono stati ingaggiati dall'istituto.
La lettera della commissione non cita RAND per nome, ma il riferimento a un rapporto del think tank rende evidente la preoccupazione che RAND possa continuare a esercitare la sua influenza sulla regolamentazione dell'IA.
Nella lettera si legge: "Le organizzazioni indicano abitualmente benefici o rischi significativi e speculativi dei sistemi di IA, ma non forniscono prove delle loro affermazioni, producono ricerche non riproducibili, si nascondono dietro la segretezza, usano metodi di valutazione privi di validità costruttiva o citano ricerche che non sono passate attraverso solidi processi di revisione, come la peer review accademica".
Per illustrare il suo punto di vista, il documento fa riferimento a una ricerca della RAND Corp. intitolata "The Operational Risks of AI in Large-Scale Biological Attacks". Il rapporto conclude che gli LLM "potrebbero aiutare nella pianificazione e nell'esecuzione di un attacco biologico".
In che modo questo influirà sulla regolamentazione dell'IA?
La motivazione che sta alla base dell'incessante paura dell'IA nella ricerca di RAND diventa più chiara quando si seguono i soldi. RAND ha ricevuto $15,5 milioni di euro in sovvenzioni da Open Philanthropy, un'organizzazione di finanziamento che si occupa di supportare altruismo effettivo cause.
I sostenitori dell'altruismo effettivo sono tra le voci più forti che chiedono di fermare o rallentare lo sviluppo dell'IA. Se RAND è una delle due organizzazioni che, secondo quanto riferito, sono state incaricate di svolgere ricerche per l'AISI, possiamo aspettarci una regolamentazione più rigida dell'IA nel prossimo futuro.
Nella lettera del comitato si legge: "Nell'implementazione dell'AISI, ci aspettiamo che il NIST sottoponga i beneficiari dei finanziamenti federali per la ricerca sulla sicurezza dell'IA alle stesse rigorose linee guida di qualità scientifica e metodologica che caratterizzano la più ampia impresa di ricerca federale".
In altre parole, il fatto che qualcuno come RAND dica che l'IA è un rischio esistenziale non lo rende tale.
Il NIST inviterà i contributi degli acceleratori dell'IA come il vicepresidente e Chief AI Scientist di Meta, Yann LeCun? In una recente intervista a Wired, LeCun ha dichiarato: "Ogni volta che la tecnologia progredisce, non si può impedire ai cattivi di accedervi. Allora è la mia IA buona contro la vostra IA cattiva. Il modo per rimanere avanti è progredire più velocemente. Il modo per progredire più velocemente è aprire la ricerca, in modo che la comunità più ampia vi contribuisca".
Il lavoro del NIST è fortemente incentrato sulla realizzazione di misurazioni accurate. Chi sceglieranno come consulenti farà inevitabilmente pendere la bilancia della regolamentazione dell'IA.