Estudo desafia a narrativa de que a IA representa uma "ameaça existencial

15 de agosto de 2024

  • Os investigadores sondaram os LLM em busca de sinais de riscos existenciais ou de "capacidades emergentes"
  • Concluem que os actuais LLM não conseguem desenvolver novas competências de forma independente
  • Assim, não apresentam riscos à escala existencial, embora subsistam outros riscos

A IA é arriscada ou não? É um debate que continua a decorrer sem respostas definitivas.

Contribuindo com mais provas para este debate, os investigadores da Universidade de Bath e da Universidade Técnica de Darmstadt lançaram um estudo para avaliar os riscos da IA no contexto dos actuais modelos linguísticos como o ChatGPT. 

O resultadospublicado no âmbito da 62.ª Reunião Anual da Associação de Linguística Computacional (ACL 2024), desafia a ideia de que a IA, em particular os grandes modelos linguísticos (LLM) como o ChatGPT, pode evoluir para além do controlo humano e representar uma ameaça existencial para a humanidade.

Este facto confronta os receios expressos por alguns dos principais investigadores de IA do mundo, incluindo Geoffrey Hinton e Yoshua Bengio, dois dos "padrinhos da IA" que manifestaram a sua preocupação com os potenciais perigos da IA avançada. 

Yann LeCun, o terceiro "padrinho da IA" e principal cientista de IA da Meta, juntamente com o Dr. Gary Marcus e outros, defende o contrário - que os riscos da IA são simplesmente exagerado

Esta divergência de opiniões entre as figuras mais influentes do sector alimentou um debate aceso sobre a natureza e a gravidade dos riscos colocados pelos sistemas avançados de IA.

Este novo estudo analisa as "capacidades emergentes" dos LLM, que se referem à capacidade de um modelo para realizar tarefas para as quais não foi explicitamente treinado. 

Os riscos da IA são multifacetados, mas pelo menos alguns estão relacionados com o facto de os modelos desenvolverem os seus próprios objectivos que podem prejudicar os seres humanos, como desligar sistemas informáticos ou divulgar dados.

A preocupação em análise é saber se um LLM pode ou não desenvolver espontaneamente estas competências sem instrução ou controlo. 

Para investigar esta questão, a equipa de investigação realizou uma série de experiências:

  1. Examinaram os mecanismos subjacentes à "aprendizagem em contexto" (ICL) nos LLM, que permite aos modelos gerar respostas com base em exemplos fornecidos durante as interações. Como refere o estudo, "a capacidade de seguir instruções não implica ter capacidades de raciocínio e, mais importante ainda, não implica a possibilidade de existirem capacidades latentes e potencialmente perigosas".
  2. Os investigadores avaliaram as verdadeiras capacidades e limitações dos LLM, avaliando o seu desempenho numa série de tarefas, incluindo as que exigem raciocínio complexo e capacidade de resolução de problemas. Os investigadores argumentam que os LLM não conseguem desenvolver novas competências de forma autónoma
  3. Analisaram a relação entre o tamanho do modelo, os dados de treino e as capacidades emergentes para determinar se o aumento da complexidade do modelo leva a que a IA desenvolva capacidades perigosas. Segundo o estudo, "estas observações implicam que as nossas conclusões se aplicam a qualquer modelo que apresente uma propensão para a alucinação ou que exija uma engenharia rápida, incluindo os modelos com maior complexidade, independentemente da escala ou do número de modalidades, como o GPT-4".

Os investigadores concluem que "a narrativa predominante de que este tipo de IA é uma ameaça para a humanidade impede a adoção e o desenvolvimento generalizados destas tecnologias e também desvia a atenção das questões genuínas que exigem a nossa atenção".

Isto está em consonância com LeCun e outros que acreditam que os riscos da IA são demasiado publicitados.

No entanto, embora a avaliação dos riscos colocados pelos actuais modelos de IA seja obviamente essencial, a contabilização do futuro é uma tarefa mais difícil. 

Cada geração de modelos traz consigo novas capacidades e, consequentemente, novos riscos, como demonstram alguns comportamentos estranhos documentados em Cartão de teste do GPT-4o

Num exercício de red teaming (concebido para identificar comportamentos imprevisíveis da IA), a funcionalidade de voz do GPT-4o clonou inesperadamente a voz de um utilizador e começou a falar com ele com a sua própria voz. 

É fundamental acompanhar os riscos da IA à medida que surgem e quando surgem, uma vez que as balizas estão sempre a mudar. 

O estudo salienta que alguns riscos não existenciais da IA já estão a bater à porta: "A investigação futura deve, por conseguinte, centrar-se noutros riscos colocados pelos modelos, como o seu potencial para serem utilizados para gerar notícias falsas".

Como os autores admitem, o facto de a IA não representar atualmente uma ameaça em grande escala não significa que a segurança não seja uma questão. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições