Os investigadores revelaram um novo tipo de vírus informático que aproveita o poder dos modelos de linguagem de grande dimensão (LLM) para escapar à deteção e se propagar.
Este "cancro sintético", como lhe chamam os seus criadores, é o retrato do que poderá ser uma nova era no malware.
David Zollikofer, da ETH Zurich, e Benjamin Zimmerman, da Ohio State University, desenvolveram este malware de prova de conceito como parte da sua candidatura à Prémio suíço para a segurança da IA.
A sua criação, descrita em pormenor numa papel para pré-impressão intitulado "Synthetic Cancer - Augmenting Worms with LLMs" (Cancro Sintético - Aumentar os Vermes com LLMs), demonstra o potencial da IA para ser explorada para criar novos ataques cibernéticos altamente sofisticados.
Eis um resumo de como funciona:
- Instalação: O malware é inicialmente entregue através de um anexo de correio eletrónico. Uma vez executado, pode descarregar ficheiros adicionais e potencialmente encriptar os dados do utilizador.
- Replicação: A fase interessante utiliza o GPT-4 ou LLMs semelhantes. O worm pode interagir com estes modelos de IA de duas formas: a) Através de chamadas API para serviços baseados na nuvem, como o GPT-4 da OpenAI. Ou b) Executando um LLM local (que pode ser comum em dispositivos futuros).
- Utilização de GPT-4/LLM: Zollikofer explicou à New Scientist"Pedimos ao ChatGPT para reescrever o ficheiro, mantendo a estrutura semântica intacta, mas alterando a forma como as variáveis são nomeadas e mudando um pouco a lógica." O LLM gera então uma nova versão do código com nomes de variáveis alterados, lógica reestruturada e, potencialmente, até mesmo estilos de codificação diferentes, tudo isso mantendo a funcionalidade original.
- Difusão: O worm analisa o histórico de correio eletrónico do Outlook da vítima e fornece este contexto à IA. O LLM gera então respostas de correio eletrónico contextualmente relevantes, completas com tácticas de engenharia social concebidas para encorajar os destinatários a abrir uma cópia anexa do worm.
Como podemos ver, o vírus utiliza a IA em dois dias: para criar código para se auto-replicar e para escrever conteúdos de phishing para continuar a propagar-se.
Além disso, tcapacidade do worm de reescrever o seu próprio código representa um problema particularmente difícil para os especialistas em cibersegurança, uma vez que pode tornar obsoletas as soluções antivírus tradicionais baseadas em assinaturas.
"O lado do ataque tem algumas vantagens neste momento, porque tem havido mais investigação nesse sentido", observa Zollikofer.
Os investigadores da Cornell Tech relataram um worm semelhante alimentado por IA em março. Ben Nassi e a sua equipa criou um verme que poderia atacar assistentes de correio eletrónico alimentados por IA, roubar dados sensíveis e propagar-se a outros sistemas.
A equipa de Nassi visou os assistentes de correio eletrónico equipados com o GPT-4 da OpenAI, o Gemini Pro da Google e o modelo de código aberto LLaVA.
"Podem ser nomes, números de telefone, números de cartão de crédito, SSN, tudo o que seja considerado confidencial" Nassi disse à Wiredsublinhando a possibilidade de violações maciças de dados.
Enquanto o worm de Nassi visava principalmente os assistentes de IA, a criação de Zollikofer e Zimmerman vai um passo mais longe, manipulando diretamente o código do malware e escrevendo os e-mails de phishing de forma autónoma.
A cibersegurança da IA está a gerar receios
Estes têm sido uns dias tumultuosos para a cibersegurança num contexto de IA, com Disney sofre uma violação de dados às mãos de um grupo de hacktivistas.
O grupo afirmou que estava a lutar contra as empresas de tecnologia para representar os criadores cujo trabalho protegido por direitos de autor tinha sido roubado ou o seu valor diminuído de outra forma.
Não há muito tempo, OpenAI foi exposto por terem sofrido uma violação em 2023, que tentaram manter em segredo. E não há muito tempo, a OpenAI e a Microsoft publicou um relatório admitindo que grupos de piratas informáticos da Rússia, da Coreia do Norte e da China tinham estado a utilizar as suas ferramentas de IA para elaborar estratégias de ciberataques.
Os autores do estudo, Zollikofer e Zimmerman, implementaram várias salvaguardas para evitar a utilização indevida, incluindo a não partilha pública do código e o facto de deixarem deliberadamente vagos pormenores específicos no seu artigo.
"Estamos plenamente conscientes de que este documento apresenta um tipo de malware com grande potencial de abuso", afirmam os investigadores na sua divulgação. "Estamos a publicar isto de boa fé e num esforço de sensibilização".
Entretanto, Nassi e os seus colegas previram que os vermes da IA poderão começar a espalhar-se na natureza "nos próximos anos" e "desencadearão resultados significativos e indesejáveis".
Tendo em conta os rápidos avanços a que assistimos em apenas quatro meses, este calendário parece não só plausível, como potencialmente conservador.