A RAND Corporation, um grupo de reflexão com laços profundos com as redes de financiamento dos bilionários da tecnologia, nomeadamente através da Open Philanthropy, desempenhou um papel fundamental na elaboração da ordem executiva do Presidente Joe Biden sobre IA.
De acordo com PoliticoEsta ordem, fortemente influenciada pelo altruísmo efetivo, uma filosofia que defende uma abordagem da filantropia baseada em dados, introduziu requisitos abrangentes de informação sobre a IA.
O envolvimento da RAND levantou suspeitas devido ao seu financiamento significativo por grupos como a Open Philanthropy, ligada a líderes tecnológicos como Dustin Moskovitz. De acordo com o porta-voz da RAND, Jeffrey Hiday, a RAND existe para "[realizar] investigação e análise sobre temas críticos da atualidade, [e] depois [partilhar] essa investigação, análise e conhecimentos com os decisores políticos".
Isto implicou uma consulta alargada sobre recente decreto executivoincluindo a redação dos documentos finais.
No início deste ano, a RAND Corporation recebeu mais de $15 milhões em subsídios discricionários da Open Philanthropy, destinados a projectos de IA e biossegurança.
A Open Philanthropy, conhecida pela sua abordagem de altruísmo efetivo, mantém ligações pessoais e financeiras com empresas de IA como a Anthropic e a OpenAI.
Além disso, as figuras de proa da RAND estão entrelaçadas nos quadros corporativos destas empresas de IA, no que continua a ser uma indústria relativamente compacta nos mais altos escalões, pelo menos nos EUA.
Os críticos argumentam que o alinhamento do grupo de reflexão com o altruísmo efetivo pode distorcer o seu foco de investigação, ofuscando preocupações imediatas com a IA, como preconceitos raciais ou violação de direitos de autor.
A dinâmica na RAND também reflecte uma tendência mais ampla em que o altruísmo efetivo está a moldar cada vez mais a política de IA - pelo menos a entrar na sua narrativa. Este movimento, defendido por figuras controversas como Sam Bankman-Fried, defende a abordagem dos riscos existenciais a longo prazo, incluindo os riscos colocados pela IA avançada, como o desenvolvimento de armas biológicas.
No entanto, este enfoque tem sido criticado por servir potencialmente os interesses das empresas tecnológicas de topo, desviando a atenção dos danos causados pela IA.
No fundo, o altruísmo efetivo arrisca-se a adiar uma ação imediata e prática em favor de planos mais hipotéticos e a longo prazo.
A luta interna da OpenAI: altruísmo vs. comercialização
OpenAI, inicialmente uma organização sem fins lucrativosA empresa , debate-se agora com a tensão entre estes objectivos altruístas e as realidades do negócio e da obtenção de lucros, especialmente após investimentos como os $1 mil milhões da Microsoft e a sua recente avaliação de $86 mil milhões.
Foi relativamente simples para a OpenAI manter esta filosofia quando se encontrava bastante sozinha no topo da indústria da IA generativa.
Agora, com a concorrência a chegar em força, nomeadamente Gemini Ultra da Googleque ameaça diretamente a superioridade do GPT-4, não é particularmente fácil exercer contenção e cuidado enquanto se mantém essa cobiçada posição no topo da pilha de modelos de IA.
A tensão na OpenAI chegou ao auge com a liderança do Diretor Executivo Sam Altman. A sua abordagem à gestão da OpenAI personificava o conflito entre o tecnocapitalismo de Silicon Valley e a crescente narrativa em torno dos riscos da IA. As pessoas especularam que Altman não estava a levar a segurança a sério na empresa, embora tal não tenha sido confirmado.
Apesar das preocupações dos membros do conselho sobre o seu compromisso com a segurança e a transparência, a reintegração de Altman como diretor executivo significou um momento crucial na história da empresa, levantando questões sobre a influência do altruísmo efetivo e o poder do conselho de administração.
A questão que se coloca agora é saber se os ideais de altruísmo efetivo e de longo prazo podem coexistir com os rápidos avanços comerciais e tecnológicos no sector da IA.
A regulamentação pode salvaguardar as actividades de criação de valor da IA
No início do ano, O memorando de Luke Sernau na Google sugeriu que a comunidade de IA de fonte aberta representava um desafio direto ao domínio de todos os principais criadores de IA.
O memorando dizia: "Na OpenAI, olhámos muito por cima dos nossos ombros. Quem é que vai ultrapassar o próximo marco? Qual será o próximo passo? Mas a verdade incómoda é que não estamos posicionados para ganhar esta corrida ao armamento e a OpenAI também não. Enquanto temos andado a discutir, uma terceira fação tem estado a comer-nos o almoço em silêncio. Estou a falar, claro, do código aberto".
Os modelos de fonte aberta, exemplificados pelo LLaMA da Meta e pelo Mixtral de MistralA Comissão Europeia e a Comissão Europeia estão a reduzir rapidamente o fosso entre a inovação de base e a grande tecnologia.
Embora seja apresentado como um passo em direção ao desenvolvimento responsável da IA, o impulso para a regulamentação da IA por parte de empresas como a Google e a OpenAI pode também prejudicar a comunidade de IA de código aberto, que oferece uma alternativa descentralizada aos modelos centralizados.
Naturalmente, os modelos de código aberto também são mais baratos e permitem que as empresas, as instituições de investigação, os estudantes e outros utilizadores incorporem um nível de propriedade e soberania nas suas soluções.
Os criadores comerciais de IA são movidos por preocupações genuínas com o desenvolvimento seguro e ético da IA ou são, em parte, manobras estratégicas para manter o domínio do mercado e o controlo sobre a inovação da IA?
A intersecção do altruísmo, da política e do comércio na indústria da IA é excecionalmente complexa. À medida que a IA avança, a conciliação destes interesses diversos continuará a dividir opiniões.