A OpenAI assinou um acordo inédito com o governo dos EUA para colaborar na investigação e avaliação da segurança da IA.
Na quinta-feira, os EUA. Instituto de Segurança da Inteligência ArtificialO Instituto Nacional de Normas e Tecnologia (NIST) anunciou que tinha chegado a acordos com a OpenAI e a sua rival Anthropic.
O acordo surge numa altura em que a empresa está alegadamente em negociações para angariar fundos com uma avaliação impressionante de $100 mil milhões, mostrando como, apesar de um período de progresso mais lento, a OpenAI continua a avançar para o futuro.
As parcerias darão ao governo acesso privilegiado a novos modelos de IA importantes antes e depois do seu lançamento público, embora seja difícil perceber exatamente o que isto significa.
É justo dizer que mesmo os próprios criadores de IA não compreendem verdadeiramente como funcionam os seus modelos, pelo que as vantagens para o NIST poderão ser limitadas. No entanto, isto marca uma tentativa de aprofundar a supervisão governamental de modelos de IA de fronteira secretos.
estamos satisfeitos por termos chegado a um acordo com o US AI Safety Institute para testes de pré-lançamento dos nossos futuros modelos.
Por muitas razões, pensamos que é importante que isto aconteça a nível nacional. US precisa de continuar a liderar!
- Sam Altman (@sama) 29 de agosto de 2024
"Uma IA segura e fiável é crucial para o impacto positivo da tecnologia", afirmou Jason Kwon, diretor de estratégia da OpenAI. "Acreditamos que o instituto tem um papel crítico a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial."
Elizabeth Kelly, diretora do Instituto de Segurança da IA dos EUA, considerou os acordos "um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA".
Ao abrigo do acordo, o instituto dará feedback à OpenAI sobre potenciais melhorias de segurança dos seus modelos, trabalhando em estreita colaboração com o Instituto de Segurança da IA do Reino Unido, que também acesso solicitado ao funcionamento interno dos modelos de IA.
Os acordos já vêm de longa data nos esforços da administração Biden para regulamentar a IA. AApós o discurso de Biden ordem executivaassinada em outubro de 2023, a governação da IA nos EUA tem vindo a acelerar lentamente, embora alguns argumentem que os progressos têm deixado muito a desejar.
O momento do acordo é digno de nota por duas razões. Em primeiro lugar, surge numa altura em que a OpenAI está alegadamente em negociações para angariar uma nova ronda de financiamento que avaliaria a empresa em mais de $100 mil milhões.
Este valor astronómico representa um aumento de mais de três vezes em relação à avaliação de $29 mil milhões registada no ano passado.
De acordo com fontes familiarizadas com o assunto, a empresa de capital de risco Thrive Capital deverá liderar a ronda com um investimento de $1 mil milhões. O gigante da tecnologia Microsoft, que já é o maior patrocinador da OpenAI, também está a participar no financiamento.
Em segundo lugar, a OpenAI está prestes a lançar um novo produto, o GPT -5, PesquisarGPTou qualquer outra iteração que envolva um codinome "Projeto Strawberry."
O projeto Strawberry, inicialmente chamado Q*, combina alegadamente um modelo de IA com um agente de IA autónomo capaz de navegar na Internet.
Crucialmente, a OpenAI terá demonstrado o Strawberry aos responsáveis pela segurança dos EUA, o que poderá ter feito parte deste novo acordo com o AI Safety Institute e o NIST.
O OpenAI tem estado bastante calmo, apesar de tudo. O GPT-4o foi considerado um grande progresso, mas a sua joia da coroa - a funcionalidade de conversação por voz - ainda não foi implementada em massa. A OpenAI referiu a segurança e as barreiras regulamentares como a razão do atraso.
Poderá a OpenAI estar a estabelecer esta nova parceria para ajudar a evitar este tipo de problemas no futuro?