A regulamentação global da IA tornou-se uma questão geopolítica, onde é que isso vai dar?

8 de novembro de 2023
Regulamentação da IA

A Cimeira de Segurança da IA do Reino Unido, combinada com a ordem executiva de Biden, colocou a regulamentação da IA no centro das atenções, mas o panorama geral permanece nebuloso. 

A cimeira reuniu um grupo diversificado de partes interessadas, demonstrando um compromisso coletivo para moldar o futuro da IA. 

A receção do evento em todo o espetro político dos meios de comunicação britânicos foi geralmente positiva, com as publicações tipicamente opostas à abordagem agressiva de Sunak, incluindo o Guardian, a saudarem-no como um sucesso global. 

Embora exista uma sensação persistente de que os eventos políticos relacionados com a IA até à data são pouco mais do que promessas, rejeitá-los totalmente pode ser demasiado reducionista. 

O Declaração de Bletchley foi um dos principais resultados da cimeira, aprovado por 28 países, incluindo os EUA, o Reino Unido, a China e a UE, sublinhando o consenso internacional sobre a supervisão da IA.

Dois dias antes da cimeira, o ordem executiva delineou a estratégia dos EUA para gerir os riscos da IA, mostrando a resposta nacional do país ao que é certamente um desafio global. 

O calendário da ordem ilustra uma tentativa de afirmar a liderança e estabelecer normas no domínio da IA, que está a avançar rapidamente.

Em conjunto, estes acontecimentos estabeleceram certamente o "porquê?" da regulamentação - para limitar os riscos, realçar os benefícios e proteger os grupos vulneráveis. 

Ficámos com a questão do "como?" e o discurso em torno da natureza e execução da regulamentação continua a ser contestado.

As grandes potências disputam agora a liderança regulamentar, que o Primeiro-Ministro do Reino Unido, Rishi Sunak, pretendia liderar quando anunciou a cimeira.

Isso foi um pouco eclipsado pela ordem executiva, onde a vice-presidente Kamala Harris disse muito claramente: "Pretendemos que as acções que estamos a tomar a nível interno sirvam de modelo para a ação internacional". 

Gina Raimondo, a Secretária do Comércio dos EUA, captou ainda mais o duplo espírito de concorrência e colaboração na sua declaração na Cimeira, afirmando: "Mesmo quando as nações competem vigorosamente, podemos e devemos procurar soluções globais para problemas globais".

Falando do ethos subjacente à recente ordem executiva, Ben Buchanan, o conselheiro da Casa Branca para a IA, disse: "A liderança dos Estados Unidos na IA não se resume a inventar a tecnologia".

"Trata-se de criar e co-desenvolver os mecanismos de governação, os protocolos de segurança, as normas e as instituições internacionais que irão moldar o impacto desta tecnologia".

Parece que, para os EUA, a regulamentação da IA é um tema geopoliticamente competitivo, especialmente quando combinado com a subjugação das exportações de IA topo de gama para a Rússia, o Médio Oriente e a China.

Um pouco menos de conversa e um pouco mais de ação?

Resta saber se estes acontecimentos irão acelerar a adoção de legislação e se essa legislação será eficaz. Sem leis em vigor, os criadores de IA podem continuar a promover quadros voluntários sem estarem vinculados a eles.

Mesmo com as leis em vigor, a IA avança rapidamente e as pessoas que compreendem verdadeiramente a tecnologia e os seus impactos são poucas e as suas opiniões dividem-se. 

Os "padrinhos da IA" de Geoffrey Hinton, Yoshio Bengio e Yann LeCun não conseguem sequer chegar a acordo sobre os riscos da IA, as suas proporções e a forma de as enfrentar.

Charlotte Walker-Osborn, sócia de tecnologia do escritório de advocacia Morrison Foerster, afirmou que a Declaração de Bletchley "provavelmente impulsionará ainda mais algum nível de consenso legislativo e governamental internacional em torno de princípios fundamentais para a regulamentação da IA". 

"Algum nível" é uma terminologia reveladora. Como Walker-Osborn salienta, "uma abordagem verdadeiramente uniforme é improvável" devido às diferentes abordagens à regulamentação e governação entre países. Chegar a um consenso é uma coisa, mas implementá-lo em quadros legais e regulamentares díspares é outra completamente diferente.

Além disso, a ausência de requisitos vinculativos, tal como admitido por Rishi Sunak, e a dependência de acordos de ensaio voluntários entre os governos e as principais empresas de IA apontam ainda para limitações. 

Sem regulamentos aplicáveis, as declarações podem não ter a força necessária para impulsionar mudanças concretas - tal como a ordem executiva de Biden. 

É possível que tenhamos entrado num período de choque simbólico de regulação, com legislação concreta ainda em grande parte na calha fora da China. 

De acordo com Deb Raji, bolseiro do Fundação MozillaA cimeira revelou perspectivas diferentes.

"Penso que há opiniões bastante divergentes em vários países sobre o que fazer exatamente", disse Raji, demonstrando que, mesmo entre aqueles que concordam com o princípio da regulamentação, os aspectos específicos continuam a ser controversos. 

Outros já tinham dito anteriormente que o Congresso está tão profundamente dividido em relação a alguns aspectos da IA que é provável que a legislação esteja muito longe.

Anu Bradford, professor de direito na Universidade de Columbia, disse: "O Congresso está profundamente polarizado e até disfuncional, na medida em que é muito improvável que produza qualquer legislação significativa sobre IA num futuro próximo".

Do mesmo modo, Margaret Mitchell, investigadora e cientista-chefe de ética da Hugging Face, declarou: "Os governos procurarão proteger os seus interesses nacionais e muitos deles procurarão estabelecer-se como líderes".

Fiabilidade dos quadros voluntários

Confiar em quadros voluntários, seja de que forma for, não é historicamente fiável.

Desde o fracasso da Liga das Nações e do Acordo de Munch, na década de 1930, até ao Protocolo de Quioto, ao Acordo de Paris, aos Princípios Orientadores da ONU (UNGP) e, no mundo empresarial, ao escândalo da Enron, as tentativas passadas de uma política voluntária multilateral não inspiram confiança.

A definição de políticas globais em matéria de IA corre o risco de seguir as pegadas históricas, com promessas que se quebram nas rochas da política real. No que respeita à política de IA, já foi exposto um desequilíbrio em termos de representação e influência. Mike Katell, investigador de ética do Instituto Alan Turing, chamou a atenção para as disparidades regionaisO Comissário para a Educação e a Cultura, António Costa, declarou: "Existem grandes lacunas no Sul Global. Em África, acontece muito pouco". 

Além disso, a regulamentação exige processos jurídicos rigorosos e sólidos para responsabilizar empresas extremamente poderosas, como a Microsoft e a Google. 

Os EUA, o Reino Unido, a UE e a China podem dar-se ao luxo de criar os tipos de quadros legislativos necessários para, pelo menos, tentar responsabilizar as empresas tecnológicas pela IA, mas o mesmo não se pode dizer da maioria dos países em desenvolvimento. 

Esta situação concentra a proteção jurídica nos países mais ricos, deixando outros países vulneráveis à exploração, tanto em termos de mão de obra para serviços de rotulagem de dados, que é fundamental para o desenvolvimento da IA, como em termos dos seus dados, que as empresas de IA poderiam facilmente recolher devido à falta de direitos digitais.

As prioridades regionais são diferentes

A regulamentação da IA não é apenas uma questão interna, mas uma peça estratégica no tabuleiro de xadrez internacional. 

Os EUA, por exemplo, mostraram a sua mão com ordens executivas que procuram salvaguardar a inovação da IA, assegurando simultaneamente que esta se mantém alinhada com os valores e normas democráticos. 

Do mesmo modo, a UE propôs proactivamente a Lei da IA, que visava estabelecer normas globais iniciais para o desenvolvimento e utilização da IA. No entanto, a UE foi indiscutivelmente demasiado precoce, arriscando-se a que a sua legislação se tornasse desactualizada ou mal definida para a atual indústria da IA, mostrando também como "observar e esperar" é uma jogada estratégica tanto quanto prática. 

Até à data, tem sido difícil unificar o bloco da UE sobre as nuances mais finas da regulamentação da IA, tais como quais os limites estabelecidos e para quem, e como a aplicação da lei deve atuar em caso de incumprimento. Embora seja provável que a lei seja ratificada em breve, o seu impacto na atual I&D em IA dirá até que ponto a lei é eficaz na aplicação da conformidade. 

Entretanto, outros estão a insinuar que irão criar as suas próprias regras, com países como o Canadá e o Japão a sugerirem as suas próprias iniciativas políticas em matéria de IA. 

Além disso, as principais potências da IA estão perfeitamente conscientes de que a criação de quadros regulamentares pode proporcionar-lhes uma vantagem competitiva. Os regulamentos que propõem não só estabelecem as normas para uma utilização ética da IA, como também definem o campo de jogo para a concorrência económica. 

O panorama da governação da IA está destinado a tornar-se um mosaico de abordagens e filosofias variadas.

"Intensificam-se os debates sobre a "Guerra Fria da IA

A atitude agressiva dos EUA de se tornarem um modelo ocidental para o desenvolvimento da IA tem outro aspeto: reforça a sua posição contra a China. 

Reflectindo uma rivalidade predominantemente tecnológica e não nuclear ou ideológica, a concorrência entre os EUA e a China tem sido designada pelos meios de comunicação social como a "Guerra Fria da IA" ou, talvez de forma mais inócua, como a "Corrida da IA".

A utilização da IA para fins militares é fundamental para a narrativa dos EUA sobre a restrição do comércio com a China, com a tecnologia de semicondutores a emergir como um campo de batalha crucial devido à sua importância fundamental para a competitividade da indústria da IA.

A narrativa em torno da Guerra Fria da IA ganhou raízes depois de a China ter anunciado a sua ambição de se tornar o líder mundial da IA até 2030. Esta afirmação suscitou preocupações e apelos para que os EUA mantenham a supremacia tecnológica, não só em seu benefício, mas também em prol dos valores democráticos em geral, dado o potencial da IA para reforçar regimes autoritários, como observado por alguns na utilização da tecnologia pela China na vigilância do Estado.

Figuras de destaque, como o antigo diretor executivo da Google, Eric Schmidt, e o cientista político Graham T. Allison, lançaram posteriormente um alerta sobre o rápido avanço da China no domínio da IA, sugerindo que os EUA poderão estar a ficar para trás em áreas cruciais.

Além disso, o potencial para uma utilização não ética da IA, principalmente associada à China, apresenta um abismo ideológico que faz lembrar a primeira Guerra Fria. As considerações éticas na utilização da IA tornaram-se, assim, um elemento narrativo fundamental nos debates sobre esta guerra fria emergente.

O Politico sugeriu mais tarde que uma aliança de nações democráticas poderá ser necessária para contrariar a ascendência da China na IA.

O sector dos semicondutores é particularmente controverso, com Taiwan a desempenhar um papel fundamental nas tensões geográficas. A Taiwan Semiconductor Manufacturing Company (TSMC) está no centro, e a maioria dos semicondutores do mundo são produzidos ou passam por Taiwan - um país cuja soberania não é reconhecida pela China. De facto, a maior parte dos chips da Nvidia também são fabricados em Taiwan.

As tensões também se reflectiram nas restrições comerciais, como se viu quando os funcionários dos EUA e da Europa citaram a "Guerra Fria da IA" como justificação para proibir a tecnologia 5G da Huawei nos processos de contratos públicos devido a preocupações de vigilância. 

Além disso, tanto a administração Trump como a administração Biden impuseram limitações à empresa holandesa ASML, impedindo a exportação de equipamento avançado de fabrico de semicondutores para a China, mais uma vez invocando riscos para a segurança nacional.

No domínio da política industrial, os EUA aprovaram a Lei da Inovação e da Concorrência e, mais tarde, a Lei CHIPS e da Ciência, que canaliza milhares de milhões para a tecnologia e a indústria transformadora, a fim de contrariar a ameaça chinesa. A UE seguiu esta abordagem com a sua Lei Europeia dos Chips, que visa reforçar as suas capacidades de fabrico de semicondutores.

A regulamentação da IA está talvez a entrar numa nova fase de debate geopolítico mais intenso.

Paralelamente, há mesmo quem duvide que o a tecnologia apresenta riscos em grande escalaenquanto outros têm a certeza disso. A confusão de todos os lados é palpável.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×
 
 

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI


 

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.



 
 

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições