A ordem executiva que o Presidente Biden assinou em outubro encarregou o Instituto Nacional de Normas e Tecnologia (NIST) de investigar a forma de testar e analisar a segurança dos modelos de IA. A influência da RAND Corporation no NIST está a ser alvo de escrutínio.
O RAND é um influente grupo de reflexão com profundas ligações a bilionários da tecnologia e a actores da IA alinhados com o movimento do "altruísmo eficaz". Recentemente, veio a lume que A RAND desempenhou um importante papel consultivo na elaboração da ordem executiva de Biden sobre a segurança da IA.
A Comissão de Ciência, Espaço e Tecnologia do Congresso dos EUA manifestou a sua preocupação numa carta sobre a forma como o NIST está a cumprir o seu mandato e como a investigação de grupos como o RAND pode influenciar o seu trabalho.
A carta, dirigida ao NIST, dizia que o comité estava "preocupado com a forma como o AISI irá financiar organizações externas e com a transparência desses prémios".
Quem está a aconselhar a AISI?
O NIST criou o Instituto de Segurança da Inteligência Artificial (AISI) e irá provavelmente subcontratar muita da investigação que precisa de fazer sobre a segurança da IA. A quem será confiada a investigação? O NIST não se pronuncia, mas há dois grupos que terão sido contratados pelo instituto.
A carta do comité não menciona a RAND pelo nome, mas uma referência a um relatório do grupo de reflexão deixa claro que estão preocupados com o facto de a RAND poder continuar a exercer a sua influência na regulamentação da IA.
A carta afirmava: "As organizações apontam rotineiramente para benefícios ou riscos especulativos significativos dos sistemas de IA, mas não fornecem provas das suas afirmações, produzem investigação não reprodutível, escondem-se atrás do segredo, utilizam métodos de avaliação que carecem de validade de construção ou citam investigação que não passou por processos de revisão robustos, como a revisão académica por pares".
Para ilustrar o seu ponto de vista, o documento remete para uma investigação da RAND Corp. intitulada: "The Operational Risks of AI in Large-Scale Biological Attacks". Esse relatório concluiu que os LLM "poderiam ajudar no planeamento e execução de um ataque biológico".
Como é que isto vai afetar a regulamentação da IA?
A motivação por detrás do medo pouco subtil da IA na investigação da RAND torna-se mais clara quando se segue o dinheiro. A RAND recebeu $15,5 milhões em subsídios da Open Philanthropy, uma organização de financiamento focada em apoiar altruísmo efetivo causas.
Os defensores do altruísmo efetivo estão entre as vozes mais altas que apelam a uma paragem ou abrandamento do desenvolvimento da IA. Se a RAND é uma das duas organizações alegadamente encarregues de fazer investigação para o AISI, então podemos esperar uma regulamentação mais rigorosa da IA num futuro próximo.
A carta da comissão dizia: "Ao implementar o AISI, esperamos que o NIST mantenha os beneficiários do financiamento federal para a investigação da segurança da IA nas mesmas directrizes rigorosas de qualidade científica e metodológica que caracterizam a empresa federal de investigação em geral".
Por outras palavras, só porque alguém como a RAND diz que a IA é um risco existencial, não quer dizer que o seja.
Irá o NIST solicitar o contributo de aceleracionistas da IA, como o vice-presidente e cientista-chefe de IA da Meta, Yann LeCun? Numa entrevista recente à Wired, LeCun afirmou: "Sempre que a tecnologia progride, não é possível impedir que os maus da fita tenham acesso a ela. Então, é a minha IA boa contra a tua IA má. A forma de nos mantermos à frente é progredir mais rapidamente. A forma de progredir mais rapidamente é abrir a investigação, para que a comunidade em geral contribua para ela".
O trabalho do NIST está fortemente centrado na realização de medições exactas. A escolha dos seus conselheiros fará inevitavelmente pender a balança da regulamentação da IA.