Relatório da RAND afirma que os LLM não aumentam o risco de ataques biológicos

26 de janeiro de 2024

Um relatório do grupo de reflexão RAND concluiu que as actuais LLM não aumentam significativamente o risco de um ataque biológico por um ator não estatal.

Em outubro do ano passado, o mesmo grupo de investigadores publicou um relatório que levantava a possibilidade de os LLM "poderem ajudar no planeamento e execução de um ataque biológico". O relatório referia que o risco de tal acontecer na prática necessitava de mais investigação.

O relatório de outubro, intitulado "The Operational Risks of AI in Large-Scale Biological Attacks" (Os riscos operacionais da IA em ataques biológicos em grande escala), foi criticado por alguns dos que defendem que a IA é perigosa. O cientista-chefe de IA da Meta, Yann LeCun, afirmou que o relatório simplificou demasiado o que é necessário para criar uma arma biológica.

Para já, estamos bem

O último relatório da RAND relatório intitulado "Current Artificial Intelligence Does Not Meaningfully Increase Risk of a Biological Weapons Attack" (A atual inteligência artificial não aumenta significativamente o risco de um ataque com armas biológicas), confirmou a avaliação de LeCun e retirou algum fôlego às velas dos que se encontram do lado do altruísmo eficaz.

Os investigadores, liderados por RAND O engenheiro Christopher A. Mouton realizou um exercício de equipa vermelha para ver como um ator não estatal malicioso poderia utilizar um LLM para construir uma arma biológica.

Os participantes foram incumbidos de planear um ataque biológico, tendo alguns deles acesso à Internet e a um LLM, enquanto outros apenas tinham acesso à Internet. Não indicaram os LLMs utilizados.

O resultado foi que não houve "nenhuma diferença estatisticamente significativa na viabilidade dos planos gerados com ou sem a assistência do LLM". Por outras palavras, o ChatGPT não lhe vai dizer nada que já não tenha pesquisado no Google.

De facto, os seus resultados mostraram que os planos desenvolvidos pelas equipas que utilizaram um LLM eram marginalmente menos viáveis do que aqueles que apenas tinham acesso à Internet. É reconfortante que nenhuma equipa tenha conseguido elaborar um plano de bio-ataque que fosse realmente viável.

À medida que os modelos de IA se tornam mais inteligentes, isso pode mudar. Mouton disse: "Só porque os LLMs de hoje não são capazes de preencher a lacuna de conhecimento necessária para facilitar o planeamento de ataques com armas biológicas, não exclui a possibilidade de o poderem fazer no futuro".

É necessária mais investigação

O relatório reconheceu que a investigação não determinou a dimensão dessa lacuna de conhecimento. Mouton afirmou que era importante continuar a investigar esta questão "porque a tecnologia de IA está disponível para todos - incluindo actores não estatais perigosos - e está a avançar mais rapidamente do que os governos conseguem acompanhar".

As pessoas que promovem o desenvolvimento de AGI dizem que o potencial para uma IA superinteligente é real e exequível. Mas muitas dessas pessoas serão as que agora dirão "eu bem te disse" e escarnecerão da ideia de que a IA possa representar um risco como o que a RAND investigou.

Provavelmente, não precisamos de andar por aí a gritar "O céu está a cair!", mas dizer que uma inteligência artificial mais inteligente do que nós não irá potencialmente permitir maus actores é também ignorante. E perigoso.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×
 
 

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI


 

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.



 
 

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições