A Austrália está a ponderar a obrigatoriedade de barreiras de proteção para a IA de "alto risco"

17 de janeiro de 2024

A Austrália está a ponderar a imposição de barreiras obrigatórias ao desenvolvimento e implantação da IA em contextos de "alto risco", em resposta às preocupações manifestadas durante as consultas públicas.

O Ministro da Indústria e da Ciência, Ed Husic, afirmou que "os australianos compreendem o valor da inteligência artificial, mas querem ver os riscos identificados e resolvidos".

As medidas que o governo australiano propôs implementar foram publicadas numa relatório intitulada: "Consulta sobre IA segura e responsável na Austrália".

O relatório afirmava: "O governo irá considerar salvaguardas obrigatórias para aqueles que desenvolvem ou implantam sistemas de IA em ambientes legítimos e de alto risco. Isto ajudará a garantir que os sistemas de IA são seguros quando os danos são difíceis ou impossíveis de reverter."

Reconheceu a existência de diferentes pontos de vista sobre o que constitui um contexto de "alto risco", mas apresentou a lista adoptada no Lei da IA da UE como exemplos:

  • certas infra-estruturas críticas (água, gás, eletricidade)
  • dispositivos médicos
  • sistemas que determinam o acesso aos estabelecimentos de ensino ou o recrutamento de pessoas
  • sistemas utilizados na aplicação da lei, no controlo das fronteiras e na administração da justiça
  • identificação biométrica
  • reconhecimento de emoções.

Além disso, deu exemplos de como a IA pode ser utilizada para prever a probabilidade de uma pessoa voltar a cometer uma infração, avaliar a adequação de uma pessoa a um emprego ou controlar um veículo autónomo.

Se uma falha na IA pode causar danos irreversíveis, então propõe que haja leis obrigatórias que definam a forma como a tecnologia é desenvolvida e utilizada.

Algumas das protecções propostas incluem rótulos digitais ou marcas de água para identificar conteúdos gerados por IA, requisitos de "human-in-the-loop" e até proibições definitivas de utilizações de IA que apresentem riscos inaceitáveis.

Os exemplos propostos de aplicações inaceitáveis incluíam a manipulação comportamental, a pontuação social e o reconhecimento facial em tempo real e em grande escala.

Regulamentação voluntária por enquanto

Poderá demorar algum tempo até que os requisitos obrigatórios propostos sejam transformados em lei. Entretanto, numa entrevista à ABC News, Husic disse: "Queremos conceber imediatamente normas de segurança voluntárias e ser capazes de trabalhar sobre elas e fazer com que a indústria compreenda o que é suposto fornecerem e como o devem fazer".

Nas suas comunicações, a OpenAI e a Microsoft apoiaram a adoção de regulamentos voluntários em vez de se apressarem a aplicar regulamentos obrigatórios.

Toby Walsh, professor de Inteligência Artificial na Universidade de New South Wales, criticou esta abordagem e a falta de medidas concretas no relatório intercalar.

O Professor Walsh disse: "É um pouco pequeno e um pouco tarde. Não há muito de concreto, e muito disso é em termos de acordos voluntários com a indústria, e como vimos no passado, tê-los a marcar o seu próprio trabalho de casa talvez não seja a melhor ideia".

O relatório afirmava que "a adoção da IA e da automatização poderia acrescentar mais $170 mil milhões a $600 mil milhões por ano ao PIB da Austrália até 2030".

Num país que é notoriamente muito regulamentado, atingir esses valores pode ser difícil se a Austrália sobrecarregar os criadores de IA com demasiada burocracia.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições