A IA é arriscada ou não? É um debate que continua a decorrer sem respostas definitivas.
Contribuindo com mais provas para este debate, os investigadores da Universidade de Bath e da Universidade Técnica de Darmstadt lançaram um estudo para avaliar os riscos da IA no contexto dos actuais modelos linguísticos como o ChatGPT.
O resultadospublicado no âmbito da 62.ª Reunião Anual da Associação de Linguística Computacional (ACL 2024), desafia a ideia de que a IA, em particular os grandes modelos linguísticos (LLM) como o ChatGPT, pode evoluir para além do controlo humano e representar uma ameaça existencial para a humanidade.
Este facto confronta os receios expressos por alguns dos principais investigadores de IA do mundo, incluindo Geoffrey Hinton e Yoshua Bengio, dois dos "padrinhos da IA" que manifestaram a sua preocupação com os potenciais perigos da IA avançada.
Yann LeCun, o terceiro "padrinho da IA" e principal cientista de IA da Meta, juntamente com o Dr. Gary Marcus e outros, defende o contrário - que os riscos da IA são simplesmente exagerado.
Esta divergência de opiniões entre as figuras mais influentes do sector alimentou um debate aceso sobre a natureza e a gravidade dos riscos colocados pelos sistemas avançados de IA.
Este novo estudo analisa as "capacidades emergentes" dos LLM, que se referem à capacidade de um modelo para realizar tarefas para as quais não foi explicitamente treinado.
Os riscos da IA são multifacetados, mas pelo menos alguns estão relacionados com o facto de os modelos desenvolverem os seus próprios objectivos que podem prejudicar os seres humanos, como desligar sistemas informáticos ou divulgar dados.
A preocupação em análise é saber se um LLM pode ou não desenvolver espontaneamente estas competências sem instrução ou controlo.
Para investigar esta questão, a equipa de investigação realizou uma série de experiências:
- Examinaram os mecanismos subjacentes à "aprendizagem em contexto" (ICL) nos LLM, que permite aos modelos gerar respostas com base em exemplos fornecidos durante as interações. Como refere o estudo, "a capacidade de seguir instruções não implica ter capacidades de raciocínio e, mais importante ainda, não implica a possibilidade de existirem capacidades latentes e potencialmente perigosas".
- Os investigadores avaliaram as verdadeiras capacidades e limitações dos LLM, avaliando o seu desempenho numa série de tarefas, incluindo as que exigem raciocínio complexo e capacidade de resolução de problemas. Os investigadores argumentam que os LLM não conseguem desenvolver novas competências de forma autónoma
- Analisaram a relação entre o tamanho do modelo, os dados de treino e as capacidades emergentes para determinar se o aumento da complexidade do modelo leva a que a IA desenvolva capacidades perigosas. Segundo o estudo, "estas observações implicam que as nossas conclusões se aplicam a qualquer modelo que apresente uma propensão para a alucinação ou que exija uma engenharia rápida, incluindo os modelos com maior complexidade, independentemente da escala ou do número de modalidades, como o GPT-4".
Os investigadores concluem que "a narrativa predominante de que este tipo de IA é uma ameaça para a humanidade impede a adoção e o desenvolvimento generalizados destas tecnologias e também desvia a atenção das questões genuínas que exigem a nossa atenção".
Isto está em consonância com LeCun e outros que acreditam que os riscos da IA são demasiado publicitados.
No entanto, embora a avaliação dos riscos colocados pelos actuais modelos de IA seja obviamente essencial, a contabilização do futuro é uma tarefa mais difícil.
Cada geração de modelos traz consigo novas capacidades e, consequentemente, novos riscos, como demonstram alguns comportamentos estranhos documentados em Cartão de teste do GPT-4o.
Num exercício de red teaming (concebido para identificar comportamentos imprevisíveis da IA), a funcionalidade de voz do GPT-4o clonou inesperadamente a voz de um utilizador e começou a falar com ele com a sua própria voz.
É fundamental acompanhar os riscos da IA à medida que surgem e quando surgem, uma vez que as balizas estão sempre a mudar.
O estudo salienta que alguns riscos não existenciais da IA já estão a bater à porta: "A investigação futura deve, por conseguinte, centrar-se noutros riscos colocados pelos modelos, como o seu potencial para serem utilizados para gerar notícias falsas".
Como os autores admitem, o facto de a IA não representar atualmente uma ameaça em grande escala não significa que a segurança não seja uma questão.