O dia 30 de outubro de 2023 marca um avanço na governação da IA, uma vez que o Presidente Joe Biden anunciou uma ordem executiva abrangente que estabelece regras e orientações sólidas para a IA.
Espera-se que a ordem dê início a uma nova era de transparência e normalização para as empresas de IA, salientando a necessidade de práticas claras de rotulagem de conteúdos e de marcas de água.
"Para concretizar a promessa da IA e evitar o risco, precisamos de governar esta tecnologia, não há como contornar isso", disse Biden no evento de assinatura na Casa Branca.
No evento, Biden também falou de falsificações profundas de IA, anunciando com humor entre o público: "Vi uma de mim... disse, que raio é que eu disse isso?"
O ordem centra-se numa maior transparência por parte dos criadores de IA e estabelece uma série de novas normas, nomeadamente para a rotulagem de conteúdos gerados por IA.
A Casa Branca tem como objetivo melhorar a "segurança e proteção da IA" através da ordem. Inclui um requisito surpreendente para que os criadores partilhem os resultados dos testes de segurança dos novos modelos de IA com o governo dos EUA se a tecnologia puder ameaçar a segurança nacional.
Isto envolve a Lei de Produção de Defesa, normalmente reservada para emergências nacionais.
Para quem não está familiarizado com o processo legislativo dos EUA, as ordens executivas não são legislação - não criam novas leis nem alteram as leis existentes. Em vez disso, dão instruções ao Congresso sobre as prioridades políticas.
A ordem, publicado aquiO regulamento relativo à IA, que é um dos mais importantes da UE, contém numerosos prazos que especificam várias acções que têm de ser tomadas para introduzir a legislação relativa à IA.
As ordens executivas devem basear-se na autoridade constitucional ou estatutária e não podem ser utilizadas para contornar o Congresso ou criar leis unilateralmente.
Como resultado, muitos sublinharam que a ordem executiva carece de mecanismos de aplicação. Não tem o peso da legislação do Congresso sobre IA.
"O Congresso está profundamente polarizado e até disfuncional, ao ponto de ser muito pouco provável que produza qualquer legislação significativa sobre IA num futuro próximo", observa Anu Bradford, professor de Direito na Universidade de Columbia.
A ordem surge dias antes de o Reino Unido iniciar o processo de marco Cimeira de Segurança da IAque reunirá políticos, investigadores, executivos do sector tecnológico e membros da sociedade civil em Bletchley Park. A vice-presidente Kamala Harris está presente. A China também estará representada na cimeira.
"Pretendemos que as medidas que estamos a tomar a nível interno sirvam de modelo para a ação internacional", afirmou Harris no evento da Casa Branca.
Esta declaração chama a atenção para as críticas de que a ordem poderia potencialmente prejudicar a colaboração internacional aberta antes da Cimeira sobre Segurança da IA.
Os EUA foram lentos na regulamentação da IA e, devido à natureza das ordens executivas, continuam a sê-lo. É talvez descarado sugerir que outros países deveriam seguir a sua trajetória.
Harris continuou dizendo que os EUA "aplicariam as regras e normas internacionais existentes com o objetivo de promover a ordem e a estabilidade globais e, sempre que necessário, para obter apoio para regras e normas adicionais que atendam a esse momento".
O que a Casa Branca tem a dizer
A ordem introduz normas rigorosas para a IA, salvaguardando a privacidade dos americanos, promovendo a equidade e os direitos civis, protegendo os consumidores e os trabalhadores, alimentando a inovação e a concorrência e reforçando a liderança americana na IA.
Complementa compromissos voluntários de 15 empresas líderes para promover o desenvolvimento seguro e fiável da IA.
Um dos elementos mais notáveis da ordem é o facto de o Presidente ter declarado que os criadores de sistemas de IA "poderosos" terão de partilhar os resultados dos testes de segurança e informações críticas com o governo dos EUA, com o objetivo de garantir que estes sistemas são seguros e fiáveis antes da sua divulgação pública.
O Instituto Nacional de Normas e Tecnologia (NIST) irá liderar os esforços de "equipa vermelha" para testar e analisar a segurança dos modelos de IA.
A equipa vermelha é o processo de sondagem e teste de esforço da funcionalidade e segurança do modelo de IA.
No que respeita à privacidade, o apelo do Presidente a uma legislação bipartidária sobre a privacidade dos dados reflecte a compreensão da urgência da situação.
No entanto, tal como referido, a eficácia destas medidas dependerá, em última análise, da ação rápida e decisiva do Congresso, que tem sido historicamente lento a legislar sobre questões relacionadas com a tecnologia.
Além disso, a ordem executiva assume uma posição forte na promoção da equidade e no combate à discriminação algorítmica, com directivas para garantir a equidade na habitação, justiça criminal e programas de benefícios federais.
Mais uma vez, embora se trate de passos positivos, o sucesso destas iniciativas dependerá de uma aplicação rigorosa e de uma supervisão contínua.
A ordem aborda oito domínios fundamentais.
Eis como o histórico decreto executivo do Presidente Biden sobre a IA irá garantir que os Estados Unidos liderem o caminho neste período de mudança tecnológica, mantendo os americanos seguros. pic.twitter.com/SvBPxiZk3M
- A Casa Branca (@WhiteHouse) 30 de outubro de 2023
1. Novas normas para a proteção e segurança da IA
- Os criadores de sistemas de IA potentes têm de partilhar os resultados dos testes de segurança e informações cruciais com o governo dos EUA.
- O desenvolvimento de normas, ferramentas e testes para garantir a segurança e a fiabilidade dos sistemas de IA, liderado pelo NIST.
- Proteção contra o potencial da IA na engenharia de materiais biológicos perigosos, estabelecendo normas sólidas para o rastreio da síntese biológica.
- Estabelecer protocolos para salvaguardar os americanos de fraudes e enganos com recurso à IA, incluindo normas para detetar conteúdos gerados por IA e autenticar comunicações oficiais.
- Lançamento de um programa avançado de cibersegurança para tirar partido da IA na proteção de software e redes.
2. Proteger a privacidade dos americanos
- Defender o apoio federal ao desenvolvimento e à utilização de técnicas de preservação da privacidade na IA.
- Reforçar a investigação em tecnologias de preservação da privacidade.
- Melhorar as directrizes das agências federais para garantir a privacidade na recolha e utilização de dados, especialmente de informações pessoalmente identificáveis.
3. Promoção da equidade e dos direitos civis
- Fornecer orientações para atenuar o potencial da IA para exacerbar a discriminação na habitação, na justiça e no emprego.
- Promover a equidade em todo o sistema de justiça penal através do desenvolvimento de boas práticas na aplicação da IA.
4. Defender os consumidores, os doentes e os estudantes
- Incentivar a utilização responsável da IA nos cuidados de saúde para o desenvolvimento de medicamentos acessíveis e que salvam vidas e garantir a segurança nas práticas de cuidados de saúde que envolvem a IA.
- Facilitar o papel transformador da IA na educação, apoiando os educadores na implantação de ferramentas de aprendizagem com recurso à IA.
5. Apoio aos trabalhadores
- Desenvolver princípios e melhores práticas para equilibrar os benefícios e os danos da IA no local de trabalho.
- Realização de estudos exaustivos sobre o impacto da IA no mercado de trabalho e reforço do apoio federal aos trabalhadores que enfrentam perturbações laborais devido à IA.
6. Promover a inovação e a concorrência
- Catalisar a investigação sobre IA a nível nacional e garantir um ecossistema de IA competitivo.
- Simplificar os processos de imigração para pessoas altamente qualificadas em sectores críticos da IA.
7. Promover a liderança americana no estrangeiro
- Reforçar as colaborações e os quadros internacionais no domínio da IA.
- Promover o desenvolvimento e a implantação seguros e responsáveis da IA em todo o mundo.
8. Assegurar uma utilização responsável e eficaz da IA por parte dos governos
- Fornecer orientações claras às agências federais sobre a utilização, aquisição e implantação da IA.
- Melhorar a aquisição de talentos em IA em todo o governo e fornecer formação em IA aos funcionários federais.
A Administração Biden-Harris está a tentar encontrar um equilíbrio entre a manutenção e o reforço da indústria de IA líder mundial dos EUA, ao mesmo tempo que impede riscos óbvios.
Falsificações e desinformações profundas estão no topo das preocupações da maioria das pessoas, uma vez que temos agora provas tangíveis de que podem influenciar as eleições.
Com as eleições gerais dos EUA no próximo ano, talvez não seja surpreendente que a ordem aumente a pressão para colocar marcas de água e destacar o conteúdo gerado pela IA, para que os utilizadores possam facilmente distinguir o verdadeiro do falso.
Tecnicamente falando, no entanto, existem não existem soluções sólidas para o conseguir na prática.
Reacções da indústria
As reacções do sector - naturalmente - são mistas. Muitos elogiam os rápidos progressos registados na assinatura da ordem, enquanto outros sublinham a falta de legislação e de informação sobre as medidas de execução.
Mais uma vez, a ordem indica que a Casa Branca pretende que o Congresso actue sobre a política de IA.
A única exceção é a Lei de Produção de Defesa, que tem sido invocada para obrigar as empresas de IA a notificar o governo quando desenvolvem modelos que interagem com a segurança nacional.
A formulação oficial é um modelo de IA que representa um "risco grave para a segurança nacional, a segurança económica nacional ou a saúde e segurança públicas nacionais".
A Ordem Executiva da IA é um pouco ridícula e muito difícil de aplicar.
Eis as questões -
1. Qualquer modelo de fundação que represente um risco grave para a segurança nacional - Como é que se determina se algo é um "risco grave para a segurança nacional!"?
Se isto é sobre...
- Bindu Reddy (@bindureddy) 30 de outubro de 2023
Alguns sublinharam que, em comparação com a Lei da IA da UE, não há orientações sobre a transparência dos dados de formação, relativamente aos quais vários criadores de IA estão a enfrentar processos judiciais.
Ausente da nova ordem de execução:
As empresas de IA devem revelar o seu conjunto de formação.
Para desenvolver uma IA segura, precisamos de saber em que é que o modelo foi treinado.
Porque é que as organizações de segurança da IA não estão a defender isto?https://t.co/yjr21bNIK4
- Damek Davis (@damekdavis) 30 de outubro de 2023
Adnan Masood, arquiteto-chefe de IA da UST, aplaudiu a iniciativa, afirmando: "A ordem ressalta uma mudança muito necessária na atenção global para a regulamentação da IA, especialmente após o boom de IA generativa que todos testemunhamos este ano."
Avivah Litanvice-presidente da Gartner Research, observou que, embora as regras comecem bem, ainda há áreas em que os mandatos ficam aquém. Questionou a definição de sistemas de IA "mais potentes", a aplicação a modelos de IA de fonte aberta e a aplicação de normas de autenticação de conteúdos em plataformas de redes sociais.
Bradley TuskCEO da Tusk Ventures, afirmou que não é provável que os criadores de IA partilhem dados proprietários com o governo, declarando: "Sem um verdadeiro mecanismo de aplicação, que a ordem executiva não parece ter, o conceito é ótimo, mas a adesão pode ser muito limitada".
Randy Lariarlíder de segurança de IA na Optiv, afirmou: "Preocupa-me que muitos modelos de código aberto, que derivam dos grandes modelos fundamentais, possam ser igualmente arriscados sem o fardo da equipa vermelha - mas isto é um começo".
Ashley LeonardLeonard, diretor executivo da Syxsense, acrescentou que será muito interessante ver como a ordem é implementada. "São necessários recursos reais - orçamento, tempo e pessoal - para que mesmo as empresas mais avançadas possam acompanhar as vulnerabilidades e correcções de erros", afirmou Leonard.
Max Tegmark, professor no Massachusetts Institute of Technology e presidente do Future of Life Institute, sublinhou que a ordem tem de vir equipada com um plano para criar e aplicar a legislação, afirmando: "Os decisores políticos, incluindo os do Congresso, têm de zelar pelos seus cidadãos, promulgando leis com força para enfrentar as ameaças e salvaguardar o progresso".
Jaysen GillespieO Diretor de Análise e Ciência de Dados da RTB House, considerou a ordem executiva positiva, afirmando que a regulamentação da IA é um tema em que é verdadeiramente possível uma abordagem bipartidária.
Alejandro Mayorkas da Homeland Security disse: "A velocidade sem precedentes do desenvolvimento e adoção da IA apresenta riscos significativos que devemos mitigar rapidamente, juntamente com oportunidades para avançar e melhorar nosso trabalho em nome do povo americano ... Ele direciona o DHS para gerenciar IA em infraestrutura crítica e ciberespaço, promover a adoção de padrões de segurança de IA globalmente, reduzir o risco de uso de IA para criar armas de destruição em massa, combater o roubo de propriedade intelectual relacionado à IA e garantir que nosso sistema de imigração atraia talentos para desenvolver IA responsável nos Estados Unidos.
Casey EllisA diretiva obriga os desenvolvedores a compartilhar os resultados dos testes de segurança com o governo dos EUA, garantindo que os sistemas de IA sejam amplamente examinados antes do lançamento público. Ele também destaca a importância da IA no reforço da segurança cibernética, particularmente na deteção de fraudes habilitadas para IA e no aprimoramento da segurança de software e rede. O pedido também defende o desenvolvimento de padrões, ferramentas e testes para a segurança e proteção da IA.
Um passo necessário, mas com desafios pela frente
A ordem executiva do Presidente Biden sobre a IA tenta ser abrangente, mas o Congresso deve acompanhar a sua urgência com uma ação legislativa. Isso está longe de ser garantido.
Embora estabeleça normas rigorosas e dê ênfase à transparência, à responsabilidade e à prevenção de práticas discriminatórias, a verdadeira eficácia desta iniciativa dependerá da sua implementação e da capacidade de equilibrar a supervisão regulamentar com a promoção da inovação.
Com a Cimeira de Segurança da IA iminente, as conversas em torno dos riscos da IA e da forma de os mitigar estão a aumentar.
O controlo global da IA continua a depender da rapidez e da eficácia da legislação e da capacidade de a fazer cumprir.