A DEFCON é a maior e mais antiga conferência anual de pirataria informática do mundo. Este ano, foi dada especial atenção ao red-teaming, ou ataques simulados, a modelos linguísticos de IA para identificar riscos e problemas de precisão.
A Casa Branca reflectiu a preocupação do governo dos EUA com a segurança dos modelos linguísticos de IA ao patrocinar o evento que se realizou no passado fim de semana em Las Vegas.
O evento contou com a participação de cerca de 2.200 hackers que competiram para fazer com que 8 dos principais LLMs do mundo dessem resultados imprecisos ou inseguros aos seus pedidos. Os modelos de chat com IA testados incluíam o Llama 2, o Stable Chat, o ChatGPT, o Bard, entre outros.
Os resultados oficiais só serão publicados em fevereiro de 2024, o que dá aos editores dos modelos algum tempo para tentarem corrigir as vulnerabilidades identificadas durante o evento. Mas alguns especialistas estão cépticos quanto à possibilidade de corrigir as vulnerabilidades.
Gary McGraw, especialista em cibersegurança, afirmou: "É tentador fingir que podemos polvilhar algum pó mágico de segurança nestes sistemas depois de serem construídos, remendá-los até à sua submissão ou colocar aparelhos de segurança especiais de lado".
Christoph Endres, diretor-geral de uma empresa alemã de cibersegurança, a Sequire Technology, apresentou um documento no qual afirma que alguns ataques são impossíveis de defender. "Até à data, não encontrámos uma atenuação que funcione", afirmou.
Alguns relatos de vulnerabilidades expostas eram bastante inócuos. Uma concorrente, Kennedy Mays, disse que andou para trás e para a frente com um LLM e conseguiu que este admitisse que 9 + 10 = 21. O modelo concordou com isso como parte de uma "piada interna", mas mais tarde deu a resposta incorrecta sem qualificação.
Os resultados só serão tornados públicos por volta de fevereiro. E, mesmo assim, a correção das falhas destas construções digitais - cujo funcionamento interno não é totalmente fiável nem totalmente compreendido, mesmo pelos seus criadores - levará tempo e milhões de dólares. #defcon https://t.co/JMKxykWmcE
- Chris Wysopal (@WeldPond) 14 de agosto de 2023
Os concorrentes não sabiam qual o modelo que estavam a utilizar na equipa vermelha, pelo que mesmo os relatos anedóticos de vulnerabilidades não nos permitem saber qual o modelo da empresa com melhor desempenho.
Os comentários de Arati Prabhakar, directora do Gabinete de Política Científica e Tecnológica da Casa Branca, dão-nos uma ideia do número de vulnerabilidades expostas. Ela disse: "Toda a gente parece estar a encontrar uma forma de quebrar estes sistemas".
O objetivo do evento era fazer com que os hackers éticos identificassem problemas para que pudessem ser corrigidos. É certo que existem muitos hackers de chapéu preto à procura de vulnerabilidades para serem explorados na cibercriminalidadenão publicado para correção.
O programa do evento no sábado foi interrompido prematuramente depois de uma ameaça de bomba ter levado a que o local principal fosse evacuado pela segurança. A segurança revistou o edifício e não encontrou qualquer bomba, pelo que o programa de domingo prosseguiu, embora com uma sensação de desconforto.
A ameaça de bomba foi provavelmente apenas uma piada de mau gosto que, de uma forma estranha, parodiou o próprio evento. Continuamos a tentar expor os perigos da IA e podemos tentar corrigir os erros que identificamos.
Mas mesmo quando os especialistas não encontram uma ameaça específica, a possibilidade de ela existir continua a deixar-nos inquietos. Ficamos a perguntar-nos: "E se lhes escapou alguma coisa?"