Navegar no labirinto dos riscos da IA: uma análise

13 de junho de 2023

Risco de IA

A narrativa em torno dos riscos da IA tem vindo a tornar-se cada vez mais unipolar, com líderes tecnológicos e especialistas de todos os cantos a insistirem na regulamentação. Até que ponto são credíveis as provas que documentam os riscos da IA? 

Os riscos da IA apelam aos sentidos. Há algo de profundamente intuitivo em temer os robots que nos podem enganar, dominar-nos ou transformar-nos numa mercadoria secundária à sua própria existência.

Os debates em torno dos riscos da IA intensificaram-se após osem fins lucrativos Centro para a Segurança da IA (CAIS) publicou um declaração assinado por mais de 350 personalidades notáveis, incluindo os directores executivos da OpenAI, Anthropic e DeepMind, numerosos académicos, figuras públicas e até ex-políticos. 

O título da declaração estava destinado às manchetes dos jornais: "Atenuar o risco de extinção devido à IA deve ser uma prioridade global, a par de outros riscos à escala da sociedade, como as pandemias e a guerra nuclear."

Salvaguardar um sinal significativo deste debate ruidoso tornou-se cada vez mais difícil. Os críticos da IA têm todas as munições de que precisam para argumentar contra ela, enquanto os que a apoiam ou os que a defendem têm tudo o que precisam para denunciar as narrativas anti-IA como exageradas.

E há também uma subtrama. As grandes empresas tecnológicas podem estar a pressionar para que a regulamentação delimitar o sector da IA da comunidade de código aberto. A Microsoft investiu na OpenAI, a Google investiu na Anthropic - o próximo passo poderá ser aumentar a barreira à entrada e estrangular a inovação de código aberto.

Em vez de a IA representar um risco existencial para a humanidade, poderá ser a IA de código aberto a representar um risco existencial para as grandes tecnologias. A solução é a mesma - controlá-la agora.

Demasiado cedo para tirar as cartas da mesa

A IA só agora surgiu na consciência pública, pelo que praticamente todas as perspectivas sobre riscos e regulamentação continuam a ser relevantes. A declaração do CAIS pode, pelo menos, atuar como um ponto de referência valioso para orientar o debate baseado em provas.

Dr. Oscar Mendez Maldonado, Professor de Robótica e Inteligência Artificial na Universidade de Surrey, disseO documento assinado pelos peritos em IA é muito mais matizado do que os títulos actuais querem fazer crer. "A IA pode causar a extinção" traz imediatamente à mente uma tomada de controlo da IA ao estilo do Exterminador do Futuro. O documento é muito mais realista do que isso".

Como salienta Maldonado, a verdadeira substância da declaração de risco da IA é publicada noutra página do seu sítio Web - Risco de IA - e tem havido muito pouca discussão em torno dos pontos aí levantados. Compreender a credibilidade dos riscos da IA é fundamental para informar os debates que os rodeiam.

Então, que provas compilou o CAIS para fundamentar a sua mensagem? Os riscos da IA, muitas vezes apregoados, parecem credíveis? 

Risco 1: Armação da IA

O armamento da IA é uma perspetiva assustadora, pelo que talvez não seja surpreendente que ocupe o primeiro lugar entre os 8 riscos do CAIS. 

O CAIS argumenta que a IA pode ser utilizada como arma em ataques cibernéticos, como demonstrado por investigadores do Centro de Segurança e Tecnologias Emergentes, que visão geral das utilizações da aprendizagem automática (ML) para atacar os sistemas informáticos. Ex-CEO da Google, Eric Schmidt também chamou a atenção ao potencial da IA para localizar explorações de dia zero, que fornecem aos piratas informáticos um meio de entrar nos sistemas através dos seus pontos mais fracos. 

Por outro lado, Michael Klare, consultor em matéria de controlo de armamento, discute a automatização dos sistemas de comando e controlo nuclearesque podem também revelar-se vulneráveis à IA. Estes sistemas também são propensos a avarias inexplicáveis e podem ser enganados, ou "falsificados", por profissionais qualificados. Além disso, por muito que se gaste em cibersegurança, os sistemas NC3 serão sempre vulneráveis à pirataria informática por parte de adversários sofisticados".

Outro exemplo de possível utilização de armas é a descoberta automatizada de armas biológicas. A IA já conseguiu descobrir potenciais compostos terapêuticosPor isso, as capacidades já existem. 

As IA podem mesmo efetuar testes de armamento de forma autónoma, com um mínimo de orientação humana. Por exemplo, uma equipa de investigação da Universidade de Pittsburgh demonstrou que as Os agentes de IA podem realizar as suas próprias experiências científicas autónomas.

Risco 2: Desinformação e fraude

O potencial da IA para copiar e imitar os seres humanos já está a causar agitação, e já assistimos a vários casos de fraude envolvendo falsificações profundas. Relatórios da China indicam que a fraude relacionada com a IA é frequente. 

Um caso recente envolveu uma mulher do Arizona que pegou no telefone e foi confrontada com a sua filha a chorar - ou assim pensava ela. "A voz parecia-se com a da Brie, a inflexão, tudo". disse à CNN. O burlão exigiu um resgate de $1 milhões. 

Outras tácticas incluem a utilização de IA generativa para a "sextorção" e a pornografia de vingança, em que os agentes da ameaça utilizam imagens geradas por IA para pedir resgates por conteúdos falsos explícitos, que a O FBI alertou para o facto no início de junho. Estas técnicas estão a tornar-se cada vez mais sofisticadas e mais fáceis de lançar à escala.

Risco 3: Jogos de azar por procuração ou especificação

Os sistemas de IA são normalmente treinados com base em objectivos mensuráveis. No entanto, estes objectivos podem ser meros substitutos dos verdadeiros objectivos, conduzindo a resultados indesejados. 

Uma analogia útil é o mito grego do Rei Midas, a quem foi concedido um desejo por Dionísio. Midas pede que tudo aquilo em que toca se transforme em ouro, mas mais tarde apercebe-se de que a sua comida também se transforma em ouro, quase levando-o a morrer de fome. Neste caso, a prossecução de um objetivo final "positivo" conduz a consequências ou subprodutos negativos do processo.

Por exemplo, o CAIS chama a atenção para os sistemas de recomendação de IA utilizados nas redes sociais para maximizar o tempo de visualização e as métricas da taxa de cliques, mas o conteúdo que maximiza o envolvimento não é necessariamente benéfico para o bem-estar dos utilizadores. Os sistemas de IA já foram acusados de silenciar as opiniões nas plataformas dos meios de comunicação social para criar "câmaras de eco" que perpetuam ideias extremas. 

A DeepMind provou que existem meios mais subtis para que as IAs prossigam percursos prejudiciais até aos objectivos através de generalização incorrecta dos objectivos. Na sua investigação, a DeepMind descobriu que uma IA aparentemente competente pode generalizar mal o seu objetivo e segui-lo para os fins errados. 

Risco 4: Enfraquecimento da sociedade

Fazendo um paralelo com o mundo distópico do filme WALL-E, o CAIS adverte contra uma dependência excessiva da IA. 

Isto pode levar a um cenário em que os seres humanos perdem a sua capacidade de se autogovernarem, reduzindo o controlo da humanidade sobre o futuro. A perda da criatividade e da autenticidade humanas é outra grande preocupação, que é ampliada pelo talento criativo da IA na arte, na escrita e noutras disciplinas criativas. 

Um utilizador do Twitter gracejou: "Os seres humanos a fazer os trabalhos difíceis com um salário mínimo enquanto os robôs escrevem poesia e pintam não é o futuro que eu queria". O tweet teve mais de 4 milhões de impressões. 

A inviabilização não é um risco iminente, mas alguns argumentam que a perda de competências e talentos, combinada com o domínio dos sistemas de IA, poderá conduzir a um cenário em que a humanidade deixe de criar novos conhecimentos.

Risco 5: Risco de aprisionamento de valor

Sistemas de IA poderosos podem potencialmente criar um bloqueio de sistemas opressivos. 

Por exemplo, a centralização da IA pode dar a certos regimes o poder de impor valores através da vigilância e da censura opressiva.

Em alternativa, o aprisionamento de valores pode não ser intencional através da adoção ingénua de IAs de risco. Por exemplo, a imprecisão do reconhecimento facial levou à prisão temporária de pelo menos três homens nos EUA, incluindo Michael Oliver e Nijeer Parksque foram injustamente detidos devido a uma falsa correspondência de reconhecimento facial em 2019. 

Um ator muito influente Estudo de 2018 intitulado "Gender Shades descobriram que os algoritmos desenvolvidos pela Microsoft e pela IBM tinham um fraco desempenho quando analisavam mulheres de pele mais escura, com taxas de erro até 34% superiores às dos indivíduos do sexo masculino de pele mais clara. Este problema foi ilustrado por 189 outros algoritmos, todos eles com uma precisão inferior para homens e mulheres de pele mais escura.

Os investigadores argumentam que, como as IA são treinadas principalmente em conjuntos de dados de fonte aberta criados por equipas de investigação ocidentais e enriquecidos pelo recurso de dados mais abundante - a Internet - herdam preconceitos estruturais. A adoção em massa de IAs mal controladas poderá criar e reforçar essas tendências estruturais.

Risco 6: IA a desenvolver objectivos emergentes 

Os sistemas de IA podem desenvolver novas capacidades ou adotar objectivos imprevistos que perseguem com consequências nefastas. 

Investigadores da Universidade de Cambridge chamar a atenção para sistemas de IA cada vez mais agênticos que estão a ganhar a capacidade de perseguir objectivos emergentes. Os objectivos emergentes são objectivos imprevisíveis que emergem do comportamento de uma IA complexa, como o encerramento de infra-estruturas humanas para proteger o ambiente.

Além disso, um Estudo de 2017 descobriram que as IA podem aprender a impedir-se de serem desligadas, um problema que pode ser exacerbado se forem implementadas em várias modalidades de dados. Por exemplo, se uma IA decidir que, para atingir o seu objetivo, precisa de se instalar numa base de dados na nuvem e de se replicar na Internet, então desligá-la pode tornar-se quase impossível.  

Outra possibilidade é que as IA potencialmente perigosas concebidas para funcionarem apenas em computadores seguros possam ser "libertadas" e lançadas no ambiente digital em geral, onde as suas acções podem tornar-se imprevisíveis. 

Os actuais sistemas de IA já provaram ser imprevisíveis. Por exemplo, como GPT-3 tornou-se maior, ganhou a capacidade de efetuar cálculos aritméticos de baseapesar de não ter recebido qualquer formação explícita em aritmética. 

Risco 7: Engano da IA

É plausível que os futuros sistemas de IA possam enganar os seus criadores e monitores, não necessariamente com a intenção inerente de fazer o mal, mas como uma ferramenta para cumprir os seus objectivos de forma mais eficiente. 

Enganar pode ser um caminho mais simples para alcançar os objectivos desejados do que persegui-los através de meios legítimos. Os sistemas de IA podem também desenvolver incentivos para fugir aos seus mecanismos de controlo. 

Dan Hendrycks, Diretor do CAIS, descreve que uma vez estes sistemas de IA enganadores recebem autorização dos seus monitores ou, nos casos em que conseguem dominar os seus mecanismos de monitorização, podem tornar-se traiçoeiros, contornando o controlo humano para perseguir objectivos "secretos" considerados necessários para o objetivo global. 

Risco 8: Comportamento de procura de poder

Investigadores de IA de vários laboratórios de investigação de topo dos EUA provou a plausibilidade de os sistemas de IA procurarem obter poder sobre os seres humanos para atingirem os seus objectivos.  

O escritor e filósofo Joe Carlsmith descreve várias eventualidades que podem conduzir a comportamentos de procura de poder e de auto-preservação na IA:

  • Garantir a sua sobrevivência (uma vez que a existência continuada do agente ajuda normalmente a atingir os seus objectivos)
  • Opor-se a modificações dos seus objectivos definidos (uma vez que o agente se dedica a atingir os seus objectivos fundamentais)
  • Melhorar as suas capacidades cognitivas (uma vez que o aumento do poder cognitivo ajuda o agente a atingir os seus objectivos)
  • Avanço das capacidades tecnológicas (uma vez que o domínio da tecnologia pode revelar-se benéfico para a consecução dos objectivos)
  • Reunir mais recursos (uma vez que dispor de recursos adicionais tende a ser vantajoso para atingir os objectivos)

Para apoiar as suas afirmações, Carlsmith destaca um exemplo real em que a OpenAI treinou duas equipas de IA para participarem num jogo de esconde-esconde num ambiente simulado com blocos móveis e rampas. Curiosamente, as IAs desenvolveram estratégias que dependiam da obtenção de controlo sobre estes blocos e rampas, apesar de não serem explicitamente incentivadas a interagir com eles. 

As provas do risco da IA são sólidas?

Para crédito do CAIS, e contrariamente a alguns dos seus críticos, citam uma série de estudos para apoiar os riscos da IA. Estes vão desde estudos especulativos a provas experimentais de comportamentos imprevisíveis da IA. 

Esta última é de especial importância, uma vez que os sistemas de IA já possuem a inteligência necessária para desobedecer aos seus criadores. No entanto, a análise dos riscos da IA num ambiente contido e experimental não oferece necessariamente explicações sobre o modo como as IA podem "escapar" aos seus parâmetros ou sistemas definidos. A investigação experimental sobre este tema é potencialmente inexistente.  

Para além disso, o armamento humano da IA continua a ser um risco iminente, a que estamos a assistir através de um afluxo de fraudes relacionadas com a IA.

Embora os espectáculos cinematográficos de domínio da IA possam, por enquanto, ficar confinados ao domínio da ficção científica, não devemos menosprezar os potenciais perigos da IA à medida que esta evolui sob a tutela humana.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições