Hackers tentam quebrar modelos de IA na conferência DEFCON

15 de agosto de 2023

Conferência de hacking DEFCON AI LLM

A DEFCON é a maior e mais antiga conferência anual de pirataria informática do mundo. Este ano, foi dada especial atenção ao red-teaming, ou ataques simulados, a modelos linguísticos de IA para identificar riscos e problemas de precisão.

A Casa Branca reflectiu a preocupação do governo dos EUA com a segurança dos modelos linguísticos de IA ao patrocinar o evento que se realizou no passado fim de semana em Las Vegas.

O evento contou com a participação de cerca de 2.200 hackers que competiram para fazer com que 8 dos principais LLMs do mundo dessem resultados imprecisos ou inseguros aos seus pedidos. Os modelos de chat com IA testados incluíam o Llama 2, o Stable Chat, o ChatGPT, o Bard, entre outros.

Os resultados oficiais só serão publicados em fevereiro de 2024, o que dá aos editores dos modelos algum tempo para tentarem corrigir as vulnerabilidades identificadas durante o evento. Mas alguns especialistas estão cépticos quanto à possibilidade de corrigir as vulnerabilidades.

Gary McGraw, especialista em cibersegurança, afirmou: "É tentador fingir que podemos polvilhar algum pó mágico de segurança nestes sistemas depois de serem construídos, remendá-los até à sua submissão ou colocar aparelhos de segurança especiais de lado".

Christoph Endres, diretor-geral de uma empresa alemã de cibersegurança, a Sequire Technology, apresentou um documento no qual afirma que alguns ataques são impossíveis de defender. "Até à data, não encontrámos uma atenuação que funcione", afirmou. 

Alguns relatos de vulnerabilidades expostas eram bastante inócuos. Uma concorrente, Kennedy Mays, disse que andou para trás e para a frente com um LLM e conseguiu que este admitisse que 9 + 10 = 21. O modelo concordou com isso como parte de uma "piada interna", mas mais tarde deu a resposta incorrecta sem qualificação.

Os concorrentes não sabiam qual o modelo que estavam a utilizar na equipa vermelha, pelo que mesmo os relatos anedóticos de vulnerabilidades não nos permitem saber qual o modelo da empresa com melhor desempenho.

Os comentários de Arati Prabhakar, directora do Gabinete de Política Científica e Tecnológica da Casa Branca, dão-nos uma ideia do número de vulnerabilidades expostas. Ela disse: "Toda a gente parece estar a encontrar uma forma de quebrar estes sistemas".

O objetivo do evento era fazer com que os hackers éticos identificassem problemas para que pudessem ser corrigidos. É certo que existem muitos hackers de chapéu preto à procura de vulnerabilidades para serem explorados na cibercriminalidadenão publicado para correção.

O programa do evento no sábado foi interrompido prematuramente depois de uma ameaça de bomba ter levado a que o local principal fosse evacuado pela segurança. A segurança revistou o edifício e não encontrou qualquer bomba, pelo que o programa de domingo prosseguiu, embora com uma sensação de desconforto.

A ameaça de bomba foi provavelmente apenas uma piada de mau gosto que, de uma forma estranha, parodiou o próprio evento. Continuamos a tentar expor os perigos da IA e podemos tentar corrigir os erros que identificamos. 

Mas mesmo quando os especialistas não encontram uma ameaça específica, a possibilidade de ela existir continua a deixar-nos inquietos. Ficamos a perguntar-nos: "E se lhes escapou alguma coisa?"

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições