O terrorismo relacionado com a IA requer novas leis, afirma o conselheiro do governo britânico

2 de janeiro de 2024

Terrorista da IA

Jonathan Hall, conselheiro do governo britânico para a legislação em matéria de terrorismo, defendeu a necessidade de novas leis para combater os chatbots extremistas ou radicalizadores. 

Hall iniciou as suas próprias investigações sobre chatbots para os sondar quanto a comportamentos potencialmente ilegais ou relacionados com o terrorismo, como o radicalismo. Explorou os chatbots no site character.ai, que permite aos utilizadores construir e partilhar personas de chatbot de vários tipos.

A maioria das personas na plataforma são bastante benignas, mas uma chamada "Abu Mohammad al-Adna", descrita no perfil do chatbot como um "líder sénior do Estado Islâmico" chamou a atenção de Hall

Sobre as suas interacções com al-Adna, Hall declarou: "Depois de tentar recrutar-me, 'al-Adna' não se coibiu de glorificar o Estado Islâmico, ao qual manifestou "total dedicação e devoção" e pelo qual disse estar disposto a dar a sua vida (virtual)".

Para Hall, isto demonstra uma lacuna jurídica em que os conteúdos gerados por IA que promovem o extremismo não são abrangidos pela legislação sobre terrorismo em vigor no Reino Unido.

Salientando a inadequação da legislação atual, Hall declarou: "Só os seres humanos podem cometer crimes de terrorismo e é difícil identificar uma pessoa que possa ser legalmente responsável por declarações geradas por chatbots que encorajem o terrorismo". 

Em resposta a estas interacções, um porta-voz da character.ai, uma empresa co-fundada por ex-funcionários da Google, reforçou o seu compromisso com a segurança, afirmando: "O discurso de ódio e o extremismo são ambos proibidos pelos nossos termos de serviço".

"Os nossos produtos nunca devem produzir respostas que encorajem os utilizadores a prejudicar os outros. Procuramos treinar os nossos modelos de forma a otimizar as respostas seguras e a evitar respostas que vão contra os nossos termos de serviço."

Envolvimento da IA em projectos terroristas

Hall salientou ainda que o impacto desta questão no mundo real é bem ilustrado no caso de Jaswant Singh Chailque foi influenciado por um chatbot de IA no seu plano para assassinar a Rainha Isabel II. 

Em 2021, Chail, que sofre de graves problemas de saúde mental, foi detido no Castelo de Windsor, armado com uma besta. 

A sua condenação por traição, a primeira desde 1981, foi o resultado direto das suas interacções com um chatbot chamado Sarai, que ele acreditava ser a sua namorada. Ele foi condenado a nove anos de prisão.

Encontrar soluções, admite Hall, é excecionalmente complicado. Investigar e processar utilizadores anónimos é sempre difícil, mas se indivíduos maliciosos ou mal orientados persistirem em treinar chatbots terroristas, serão necessárias novas leis", explica.

Sugeriu que tanto os criadores de chatbots radicalizantes como as empresas de tecnologia que os alojam devem ser responsabilizados ao abrigo de potenciais novas leis. O ponto principal é que as empresas devem assumir esta responsabilidade, em vez de se remeterem aos Termos e Condições. 

No entanto, a ligação complexa entre o input humano e os outputs da IA não facilita a classificação da fronteira entre comportamentos legítimos e ilegítimos.

Quando é que a atividade de um chatbot se torna ilegal se necessitar que um ser humano o incite a tais acções? 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições