A Casa Branca anuncia novas regras de IA para as agências federais

29 de março de 2024

  • O Gabinete de Gestão e Orçamento (OMB) da Casa Branca publicou políticas para orientar a utilização federal da IA
  • As agências federais terão de implementar salvaguardas de IA e publicar as suas ferramentas de IA e casos de utilização
  • A administração Biden vai contratar 100 profissionais de IA para promover a utilização fiável e segura da IA

A vice-presidente dos EUA, Kamala Harris, anunciou uma série de novas políticas que regulam a forma como as agências federais utilizam a IA nas suas operações.

As políticas mais recentes vêm no seguimento do anúncio do Presidente Biden do seu Decreto Executivo sobre IA em outubro do ano passado. O governo dos EUA está a fazer esforços para acalmar os receios sobre a forma como as agências governamentais irão utilizar as tecnologias de IA, que muitos vêem com desconfiança.

As políticas elaboradas pelo Gabinete de Gestão e Orçamento (OMB) exigem que as agências federais

  • Abordar os riscos da utilização da IA
  • Aumentar a transparência da utilização da IA
  • Promover a inovação responsável da IA
  • Aumentar a força de trabalho da IA
  • Reforçar a governação da IA

Riscos de endereço

As agências federais terão de identificar e gerir os riscos da IA para garantir que a utilização da IA não afecta os direitos ou a segurança dos cidadãos.

Até 1 de dezembro de 2024, todas as agências federais terão de implementar "salvaguardas concretas" que abordem riscos potenciais como a discriminação algorítmica e outros impactos na sociedade.

Dar às pessoas num aeroporto a possibilidade de optarem por não utilizar o reconhecimento facial da TSA, assegurar a supervisão humana nos cuidados de saúde ou detetar fraudes nos serviços governamentais, será obrigatório quando a IA for utilizada.

As agências que não conseguirem implementar estas salvaguardas terão de deixar de utilizar a respectiva ferramenta de IA.

Aumentar a transparência

A política exige que todas as agências federais publiquem publicamente um inventário das ferramentas de IA que utilizam. Terão de identificar os casos de utilização que afectam os direitos ou a segurança e a forma como estão a ser tratados.

O projeto de orientações sobre a forma como as agências devem comunicar este facto exclui os casos em que a IA é "utilizada como componente de um sistema de segurança nacional ou no âmbito da comunidade de informações".

Mesmo nestes casos excluídos, as agências terão de apresentar relatórios sobre as métricas dos sistemas de IA que utilizam, notificar o público destes casos de utilização de IA isentos e justificar a razão pela qual estão isentos.

Um requisito interessante é o facto de as agências federais terem de "libertar códigos, modelos e dados de IA propriedade do governo, sempre que tais libertações não representem um risco para o público ou para as operações do governo".

Promover a inovação responsável da IA

As novas políticas sublinham o empenho do governo dos EUA em implantar tecnologias de IA numa vasta gama de aplicações.

O anúncio dizia que o governo iria eliminar barreiras desnecessárias para permitir uma implantação mais fácil da IA em aplicações como a resolução da crise climática, a resposta a catástrofes naturais, os cuidados de saúde públicos e os transportes públicos.

As políticas do OMB encorajam "as agências a experimentar responsavelmente a IA generativa", seguindo as orientações sobre como o fazer de forma segura.

Aumentar a força de trabalho da IA

Até ao verão de 2024, a Administração Biden-Harris comprometeu-se a contratar 100 profissionais de IA como parte do seu programa para garantir a implementação segura e fiável da IA nas agências federais.

As empresas de IA das grandes tecnologias estão a travar uma batalha de alto risco pelo talento em IA e parece que o governo dos EUA compreende que não será fácil atrair e reter as pessoas certas para preencher essas 100 vagas.

No próximo mês, a Comissão organizará uma feira de carreiras e emitiu orientações sobre as flexibilidades salariais e de férias especificamente para as funções de IA.

Para atrair trabalhadores para estas funções, as agências podem oferecer-lhes incentivos salariais iniciais, incentivos à relocalização, horários de trabalho flexíveis e à distância e férias anuais adicionais.

Reforçar a governação da IA

As agências federais terão de designar Chief AI Officers para garantir a responsabilização, a liderança e a supervisão da utilização da IA nas suas operações.

"Orientamos todas as agências federais a designar um oficial chefe de IA com experiência, conhecimento e autoridade para supervisionar todas - vou enfatizar isso - todas as tecnologias de IA usadas por essa agência", disse Harris durante seu anúncio na quarta-feira.

Terão também de criar um Conselho de Governação da IA para coordenar e gerir a utilização da IA em toda a agência.

A Directora do OMB, Shalanda Young, afirmou: "A IA apresenta não só riscos, mas também uma enorme oportunidade para melhorar os serviços públicos e fazer progressos em desafios societais como a resolução das alterações climáticas, a melhoria da saúde pública e a promoção de oportunidades económicas equitativas".

As novas políticas de IA têm por objetivo ajudar as agências federais a explorar esse potencial, protegendo simultaneamente os direitos e a segurança das pessoas que as agências servem.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições