Um relatório encomendado pelo governo dos EUA afirma que são necessárias novas medidas e políticas de segurança em matéria de IA para evitar uma "ameaça de extinção para a espécie humana".
O relatório, que está disponível mediante solicitação, foi compilado pela Gladstone AI, uma empresa criada em 2022 com o objetivo de aconselhar os departamentos governamentais dos EUA sobre oportunidades e riscos de IA. O relatório, intitulado "An Action Plan to Increase the Safety and Security of Advanced AI", demorou um ano a ser concluído e foi financiado por $250.000 de fundos federais.
O relatório centra-se nos riscos catastróficos da IA avançada e propõe um plano de ação abrangente para os atenuar. Os autores não partilham, obviamente, a visão mais laissez-faire de Yann LeCun sobre as ameaças da IA.
O relatório afirma que "o aumento da IA avançada e da AGI [inteligência artificial geral] tem o potencial de desestabilizar a segurança global de uma forma que faz lembrar a introdução de armas nucleares".
As duas principais categorias de risco que levanta são a utilização intencional da IA como arma e as consequências não intencionais de uma AGI que se torne desonesta.
Para evitar que isso aconteça, o relatório apresenta um plano de ação composto por cinco linhas de esforço, ou LOE, que o governo dos EUA deve pôr em prática.
A versão resumida é a seguinte:
LOE1 - Criar um observatório da IA para um melhor acompanhamento do panorama da IA. Criar um grupo de trabalho para definir regras para o desenvolvimento e a adoção responsáveis da IA. Utilizar restrições na cadeia de abastecimento para promover a conformidade dos intervenientes internacionais da indústria da IA.
LOE2 - Aumentar a preparação para a resposta a incidentes avançados de IA. Coordenar grupos de trabalho interagências, educação governamental em matéria de IA, quadro de alerta precoce para a deteção de ameaças emergentes de IA e planos de contingência baseados em cenários.
LOE3 - Os laboratórios de IA estão mais concentrados no desenvolvimento da IA do que na segurança da IA. O governo dos EUA precisa de financiar investigação avançada sobre segurança e proteção da IA, incluindo no alinhamento escalável da AGI.
Desenvolver normas de segurança e proteção para o desenvolvimento e a adoção responsáveis da IA.
LOE4 - Criar uma "agência reguladora da IA com poderes de regulamentação e licenciamento".
Estabelecer um quadro de responsabilidade civil e penal para evitar "consequências irrecuperáveis à escala das ADM", incluindo "poderes de emergência para permitir uma resposta rápida a ameaças em rápida evolução".
LOE5 - Estabelecer um regime de salvaguardas da IA no direito internacional e proteger a cadeia de abastecimento. Promover um "consenso internacional" sobre os riscos da IA através de um tratado sobre a IA aplicado pela ONU ou por uma "agência internacional de IA".
Em resumo, a IA pode ser muito perigosa, pelo que precisamos de muitas leis para a controlar.
O relatório afirma que os modelos avançados de código aberto são uma má ideia e que o governo dos EUA deveria considerar a possibilidade de tornar ilegal a divulgação dos pesos dos modelos de IA, sob pena de prisão.
Se isto lhe parece um pouco alarmista e pesado, então não é o único. O relatório foi alvo de algumas críticas pela sua falta de rigor científico.
no caso de estar a pensar em como levar a sério este recente relatório pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12 de março de 2024
Os defensores do código aberto, como William Falcon, diretor executivo da Lightning AI, criticaram especialmente as declarações gerais sobre os perigos dos modelos abertos.
Farenheight 451 mas para pesos de modelos...
De acordo com a TIME, a IA de código aberto causará um "evento de nível de extinção para os humanos" 🙄
Em primeiro lugar, é uma afirmação muito disparatada. Mas se quer mesmo pôr o seu chapéu de lata, é mais provável que a IA de fonte próxima cause istohttps://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- William Falcon ⚡️ (@_willfalcon) 12 de março de 2024
A verdade sobre os riscos que a IA avançada representa para a humanidade situa-se provavelmente algures entre "Vamos todos morrer!" e "Não é preciso preocuparmo-nos".
Página 33 de um Inquérito sobre a IA referido no relatório dá alguns exemplos interessantes de como os modelos de IA manipulam o sistema e enganam os operadores para atingir o objetivo para o qual foram concebidos para otimizar.
Quando os modelos de IA já exploram lacunas para atingir um objetivo, é difícil descartar a possibilidade de futuros modelos de IA superinteligentes fazerem o mesmo. E a que custo?
Pode ler o resumo executivo do relatório aqui.