La orden ejecutiva que el Presidente Biden firmó en octubre encargaba al Instituto Nacional de Normas y Tecnología (NIST) que investigara cómo probar y analizar la seguridad de los modelos de IA. La influencia de la RAND Corporation en el NIST está siendo objeto de escrutinio.
RAND es un influyente think tank con profundos vínculos con multimillonarios de la tecnología y actores de la IA alineados con el movimiento del "altruismo efectivo". Recientemente ha salido a la luz que RAND desempeñó un importante papel de asesoramiento en la elaboración de la orden ejecutiva de Biden sobre la seguridad de la IA.
El Comité de Ciencia, Espacio y Tecnología del Congreso de EE.UU. ha expresado su preocupación en una carta sobre la forma en que el NIST lleva a cabo su mandato y cómo la investigación de grupos como RAND puede influir en su trabajo.
La carta, dirigida al NIST, decía que el comité estaba "preocupado por la forma en que la AISI financiará a organizaciones externas y por la transparencia de esas adjudicaciones".
¿Quién asesora a la AISI?
El NIST creó el Instituto de Seguridad de la Inteligencia Artificial (AISI) y probablemente subcontratará gran parte de la investigación que necesita realizar sobre la seguridad de la IA. ¿A quién subcontratará la investigación? El NIST no lo aclara, pero al parecer el instituto ha contratado a dos grupos.
La carta del comité no menciona a RAND por su nombre, pero una referencia a un informe del grupo de expertos deja claro que les preocupa que RAND pueda seguir ejerciendo su influencia en la regulación de la IA.
La carta afirmaba: "Las organizaciones señalan habitualmente importantes beneficios o riesgos especulativos de los sistemas de IA, pero no aportan pruebas de sus afirmaciones, producen investigaciones no reproducibles, se esconden tras el secretismo, utilizan métodos de evaluación que carecen de validez de constructo o citan investigaciones que no han pasado por procesos de revisión sólidos, como la revisión por pares académicos".
Para ilustrar su punto de vista, el documento enlaza con una investigación de RAND Corp. titulada: "Los riesgos operativos de la IA en ataques biológicos a gran escala". Ese informe concluía que los LLM "podrían ayudar en la planificación y ejecución de un ataque biológico".
¿Cómo afectará esto a la regulación de la IA?
La motivación que subyace tras el sutil alarmismo sobre la IA en la investigación de RAND queda más clara cuando se sigue la pista del dinero. RAND recibió $15,5 millones en subvenciones de Open Philanthropy, una organización de financiación centrada en apoyar a altruismo efectivo causas.
Los defensores del altruismo efectivo se encuentran entre las voces más ruidosas que piden que se detenga o ralentice el desarrollo de la IA. Si RAND es una de las dos organizaciones a las que se ha encomendado la investigación para la AISI, podemos esperar una regulación más estricta de la IA en un futuro próximo.
La carta del comité decía: "Al aplicar la AISI, esperamos que el NIST exija a los receptores de fondos federales para la investigación de la seguridad de la IA las mismas directrices rigurosas de calidad científica y metodológica que caracterizan a la empresa federal de investigación en general".
En otras palabras, que alguien como RAND diga que la IA es un riesgo existencial no significa que lo sea.
¿Invitará el NIST a participar a aceleradores de la IA como Yann LeCun, vicepresidente y científico jefe de IA de Meta? En una entrevista reciente con Wired, LeCun afirmó: "Siempre que la tecnología progresa, no se puede impedir que los malos tengan acceso a ella. Entonces es mi IA buena contra tu IA mala. La forma de ir por delante es avanzar más rápido. La forma de progresar más rápido es abrir la investigación, para que la comunidad en general contribuya a ella".
El trabajo del NIST está muy centrado en realizar mediciones precisas. A quién elijan como asesores inclinará inevitablemente la balanza de la regulación de la IA.