A Austrália está a ponderar a imposição de barreiras obrigatórias ao desenvolvimento e implantação da IA em contextos de "alto risco", em resposta às preocupações manifestadas durante as consultas públicas.
O Ministro da Indústria e da Ciência, Ed Husic, afirmou que "os australianos compreendem o valor da inteligência artificial, mas querem ver os riscos identificados e resolvidos".
As medidas que o governo australiano propôs implementar foram publicadas numa relatório intitulada: "Consulta sobre IA segura e responsável na Austrália".
Ouvimos os vossos comentários sobre a nossa #ResponsávelAI consulta.#AusGovA resposta provisória da Comissão contribuirá para influenciar as futuras #AI regulamentação de uma forma que beneficie as pessoas, o governo e as empresas na Austrália.
Ler mais: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Departamento da Indústria, Ciência e Recursos (@IndustryGovAu) 16 de janeiro de 2024
O relatório afirmava: "O governo irá considerar salvaguardas obrigatórias para aqueles que desenvolvem ou implantam sistemas de IA em ambientes legítimos e de alto risco. Isto ajudará a garantir que os sistemas de IA são seguros quando os danos são difíceis ou impossíveis de reverter."
Reconheceu a existência de diferentes pontos de vista sobre o que constitui um contexto de "alto risco", mas apresentou a lista adoptada no Lei da IA da UE como exemplos:
- certas infra-estruturas críticas (água, gás, eletricidade)
- dispositivos médicos
- sistemas que determinam o acesso aos estabelecimentos de ensino ou o recrutamento de pessoas
- sistemas utilizados na aplicação da lei, no controlo das fronteiras e na administração da justiça
- identificação biométrica
- reconhecimento de emoções.
Além disso, deu exemplos de como a IA pode ser utilizada para prever a probabilidade de uma pessoa voltar a cometer uma infração, avaliar a adequação de uma pessoa a um emprego ou controlar um veículo autónomo.
Se uma falha na IA pode causar danos irreversíveis, então propõe que haja leis obrigatórias que definam a forma como a tecnologia é desenvolvida e utilizada.
Algumas das protecções propostas incluem rótulos digitais ou marcas de água para identificar conteúdos gerados por IA, requisitos de "human-in-the-loop" e até proibições definitivas de utilizações de IA que apresentem riscos inaceitáveis.
Os exemplos propostos de aplicações inaceitáveis incluíam a manipulação comportamental, a pontuação social e o reconhecimento facial em tempo real e em grande escala.
Regulamentação voluntária por enquanto
Poderá demorar algum tempo até que os requisitos obrigatórios propostos sejam transformados em lei. Entretanto, numa entrevista à ABC News, Husic disse: "Queremos conceber imediatamente normas de segurança voluntárias e ser capazes de trabalhar sobre elas e fazer com que a indústria compreenda o que é suposto fornecerem e como o devem fazer".
Nas suas comunicações, a OpenAI e a Microsoft apoiaram a adoção de regulamentos voluntários em vez de se apressarem a aplicar regulamentos obrigatórios.
Toby Walsh, professor de Inteligência Artificial na Universidade de New South Wales, criticou esta abordagem e a falta de medidas concretas no relatório intercalar.
O Professor Walsh disse: "É um pouco pequeno e um pouco tarde. Não há muito de concreto, e muito disso é em termos de acordos voluntários com a indústria, e como vimos no passado, tê-los a marcar o seu próprio trabalho de casa talvez não seja a melhor ideia".
O relatório afirmava que "a adoção da IA e da automatização poderia acrescentar mais $170 mil milhões a $600 mil milhões por ano ao PIB da Austrália até 2030".
Num país que é notoriamente muito regulamentado, atingir esses valores pode ser difícil se a Austrália sobrecarregar os criadores de IA com demasiada burocracia.