Londres, Reino Unido - O Primeiro-Ministro Rishi Sunak afirmou na semana passada, na London Tech Week, que a OpenAI, a Google DeepMind e a Anthropic prometeram fornecer "acesso antecipado ou prioritário" aos seus modelos de IA.
A iniciativa visa apoiar a investigação no domínio da inteligência artificial centrada na avaliação e na segurança. Esta declaração surge na sequência da Plano do Governo do Reino Unido para convocar uma reunião mundial sobre segurança da IA.
O Primeiro-Ministro Sunak expressou o seu empenho na investigação sobre segurança da IA, afirmando: "Vamos fazer investigação de ponta sobre segurança [da IA] aqui no Reino Unido". Estamos a investir mais dinheiro na segurança da IA do que qualquer outro governo, incluindo 100 milhões de libras para a nossa equipa de especialistas".
Estamos a colaborar com os laboratórios de ponta - Google DeepMind, OpenAI e Anthropic. E apraz-me dizer que concordaram em fornecer acesso antecipado ou prioritário a modelos por razões de investigação e segurança, para nos ajudar a construir melhores avaliações e compreender o potencial e os perigos destes sistemas".
O Primeiro-Ministro Sunak estabeleceu uma ligação com as conferências COP sobre o clima, a fim de promover o Reino Unido como um centro mundial de regulamentação da segurança da IA. "Tal como nos unimos através da COP para combater as alterações climáticas, o Reino Unido acolherá a primeira cimeira de sempre sobre a segurança global da IA no final deste ano", afirmou sobre a reunião iminente. "Meu objetivo é fazer do Reino Unido não apenas o lar intelectual, mas também o lar geográfico da regulamentação mundial de segurança de IA."
Esta ênfase atual na segurança da IA reflecte uma mudança substancial de atitude do governo. No passado, o governo do Reino Unido favorecia uma postura pró-inovação e princípios flexíveis para a governação da IA, rejeitando a necessidade de regulamentos técnicos ou agências de monitorização.
No entanto, com as crescentes preocupações sobre os possíveis perigos e o controlo da IA, Downing Street reavaliou rapidamente o seu plano.
Embora a promessa das empresas de IA de proporcionar um melhor acesso aos seus modelos dê ao Reino Unido a oportunidade de liderar as abordagens de análise e auditoria da IA, existe o perigo de a indústria influenciar as medidas de segurança da IA do país.
Os gigantes da IA poderão ser capazes de moldar as futuras regras de IA que dizem respeito às suas próprias empresas, moldando o debate em torno da investigação sobre a segurança da IA e influenciando a definição de prioridades.
Para garantir a produção de resultados fiáveis e rigorosos, os programas de segurança da IA do governo do Reino Unido devem incluir investigadores independentes, organizações da sociedade civil e pessoas em maior risco de sofrerem danos causados pela automação.
Os especialistas em ética salientaram a necessidade de abordar as injustiças reais criadas pela tecnologia da IA, incluindo o preconceito, a discriminação, a invasão da privacidade, a violação da propriedade intelectual e a exploração ambiental.
À medida que o Reino Unido avança com a sua agenda de segurança da IA, combinar a participação da indústria com uma supervisão independente será fundamental para desenvolver um ecossistema de IA responsável e inclusivo que proteja contra possíveis perigos, maximizando simultaneamente as vantagens da inteligência artificial.