O Departamento de Comércio dos EUA emitiu uma política que apoia os modelos abertos, num sinal das opiniões da administração Biden-Harris sobre a questão controversa.
Os apoiantes dos modelos fechados, como a OpenAI e a Google, falam dos riscos dos modelos abertos, enquanto outros, como a Meta, estão empenhados em variações da IA de fonte aberta.
O relatório do DOC da autoria da sua divisão da Administração Nacional das Telecomunicações e da Informação (NTIA), abraça "a abertura na inteligência artificial (IA), ao mesmo tempo que apela a uma monitorização ativa dos riscos em modelos de IA potentes".
Os argumentos contra a divulgação aberta de modelos apontam geralmente para os riscos de dupla utilização, ou seja, a possibilidade de os maus actores poderem manipular os modelos à sua vontade nefasta. A política reconhece o risco de dupla utilização, mas afirma que os benefícios são superiores aos riscos.
"A administração Biden-Harris está puxando todas as alavancas para maximizar a promessa da IA enquanto minimiza seus riscos", disse a secretária de Comércio dos EUA, Gina Raimondo.
"O relatório de hoje fornece um roteiro para a inovação responsável da IA e a liderança americana, abraçando a abertura e recomendando como o governo dos EUA pode se preparar e se adaptar aos possíveis desafios futuros."
O relatório afirma que o governo dos EUA deve monitorizar ativamente os potenciais riscos emergentes, mas deve abster-se de restringir a disponibilidade de modelos de ponderação aberta.
Os pesos abertos abrem as portas
Qualquer pessoa pode descarregar a última versão do Meta Modelo Llama 3.1 405B e os seus pesos. Embora os dados de treino não tenham sido disponibilizados, ter os pesos dá aos utilizadores muito mais opções do que teriam com GPT-4o ou Claude 3.5 Soneto por exemplo.
O acesso aos pesos permite aos investigadores e programadores ter uma melhor visão do que está a acontecer nos bastidores e identificar e retificar enviesamentos, erros ou comportamentos inesperados no modelo.
Também torna muito mais fácil para os utilizadores afinarem os modelos para casos de utilização específicos, sejam eles bons ou maus.
O relatório refere que "a acessibilidade proporcionada pelos pesos abertos reduz significativamente a barreira de entrada para afinar os modelos, tanto para fins benéficos como prejudiciais. Os actores adversários podem eliminar as salvaguardas dos modelos abertos através de afinações e, em seguida, distribuir livremente o modelo, limitando, em última análise, o valor das técnicas de atenuação".
Os riscos e benefícios dos modelos abertos de IA destacados pelo relatório incluem:
- Segurança pública
- Considerações geopolíticas
- Questões societais
- Concorrência, inovação e investigação
O relatório é franco ao reconhecer os riscos em cada um destes domínios, mas afirma que os benefícios são superiores aos mesmos se os riscos forem geridos.
Com um modelo fechado como o GPT-4o, todos temos de confiar que a OpenAI está a fazer um bom trabalho com os seus esforços de alinhamento e não está a esconder potenciais riscos. Com um modelo de peso aberto, qualquer investigador pode identificar vulnerabilidades de segurança e proteção num modelo ou realizar uma auditoria de terceiros para garantir que o modelo está em conformidade com os regulamentos.
O relatório afirma que "a disponibilidade de pesos-modelo pode permitir que os países em causa desenvolvam ecossistemas de IA avançada mais robustos... e minar os objectivos da Controlos de chips nos EUA."
No entanto, na coluna dos pontos positivos, a disponibilização de pesos-modelo "poderia reforçar a cooperação com os aliados e aprofundar novas relações com parceiros em desenvolvimento".
O governo dos Estados Unidos está claramente convencido da ideia de modelos abertos de IA, mesmo quando implementa regulamentos federais e estatais para reduzir o risco da tecnologia. Se o Trump-Vance Se a equipa da Comissão Europeia ganhar as próximas eleições, é provável que continuemos a apoiar a IA aberta, mas com ainda menos regulamentação.
Os modelos de ponderação aberta podem ser óptimos para a inovação, mas se os riscos emergentes apanharem os reguladores desprevenidos, não será possível voltar a colocar o génio da IA na garrafa.