Relatório encomendado pelos EUA afirma que a IA representa uma "ameaça ao nível da extinção"

13 de março de 2024

Um relatório encomendado pelo governo dos EUA afirma que são necessárias novas medidas e políticas de segurança em matéria de IA para evitar uma "ameaça de extinção para a espécie humana".

O relatório, que está disponível mediante solicitação, foi compilado pela Gladstone AI, uma empresa criada em 2022 com o objetivo de aconselhar os departamentos governamentais dos EUA sobre oportunidades e riscos de IA. O relatório, intitulado "An Action Plan to Increase the Safety and Security of Advanced AI", demorou um ano a ser concluído e foi financiado por $250.000 de fundos federais.

O relatório centra-se nos riscos catastróficos da IA avançada e propõe um plano de ação abrangente para os atenuar. Os autores não partilham, obviamente, a visão mais laissez-faire de Yann LeCun sobre as ameaças da IA.

O relatório afirma que "o aumento da IA avançada e da AGI [inteligência artificial geral] tem o potencial de desestabilizar a segurança global de uma forma que faz lembrar a introdução de armas nucleares".

As duas principais categorias de risco que levanta são a utilização intencional da IA como arma e as consequências não intencionais de uma AGI que se torne desonesta.

Para evitar que isso aconteça, o relatório apresenta um plano de ação composto por cinco linhas de esforço, ou LOE, que o governo dos EUA deve pôr em prática.

A versão resumida é a seguinte:

LOE1 - Criar um observatório da IA para um melhor acompanhamento do panorama da IA. Criar um grupo de trabalho para definir regras para o desenvolvimento e a adoção responsáveis da IA. Utilizar restrições na cadeia de abastecimento para promover a conformidade dos intervenientes internacionais da indústria da IA.

LOE2 - Aumentar a preparação para a resposta a incidentes avançados de IA. Coordenar grupos de trabalho interagências, educação governamental em matéria de IA, quadro de alerta precoce para a deteção de ameaças emergentes de IA e planos de contingência baseados em cenários.

LOE3 - Os laboratórios de IA estão mais concentrados no desenvolvimento da IA do que na segurança da IA. O governo dos EUA precisa de financiar investigação avançada sobre segurança e proteção da IA, incluindo no alinhamento escalável da AGI.

Desenvolver normas de segurança e proteção para o desenvolvimento e a adoção responsáveis da IA.

LOE4 - Criar uma "agência reguladora da IA com poderes de regulamentação e licenciamento".

Estabelecer um quadro de responsabilidade civil e penal para evitar "consequências irrecuperáveis à escala das ADM", incluindo "poderes de emergência para permitir uma resposta rápida a ameaças em rápida evolução".

LOE5 - Estabelecer um regime de salvaguardas da IA no direito internacional e proteger a cadeia de abastecimento. Promover um "consenso internacional" sobre os riscos da IA através de um tratado sobre a IA aplicado pela ONU ou por uma "agência internacional de IA".

Em resumo, a IA pode ser muito perigosa, pelo que precisamos de muitas leis para a controlar.

O relatório afirma que os modelos avançados de código aberto são uma má ideia e que o governo dos EUA deveria considerar a possibilidade de tornar ilegal a divulgação dos pesos dos modelos de IA, sob pena de prisão.

Se isto lhe parece um pouco alarmista e pesado, então não é o único. O relatório foi alvo de algumas críticas pela sua falta de rigor científico.

Os defensores do código aberto, como William Falcon, diretor executivo da Lightning AI, criticaram especialmente as declarações gerais sobre os perigos dos modelos abertos.

A verdade sobre os riscos que a IA avançada representa para a humanidade situa-se provavelmente algures entre "Vamos todos morrer!" e "Não é preciso preocuparmo-nos".

Página 33 de um Inquérito sobre a IA referido no relatório dá alguns exemplos interessantes de como os modelos de IA manipulam o sistema e enganam os operadores para atingir o objetivo para o qual foram concebidos para otimizar.

Quando os modelos de IA já exploram lacunas para atingir um objetivo, é difícil descartar a possibilidade de futuros modelos de IA superinteligentes fazerem o mesmo. E a que custo?

Pode ler o resumo executivo do relatório aqui.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições