A desinformação falsa e profunda da IA atinge as eleições no Bangladesh

15 de dezembro de 2023

Bangladesh IA

Enquanto o Bangladesh se prepara para as eleições nacionais no início de janeiro, uma ameaça cada vez mais familiar está a surgir: A desinformação profunda e falsa gerada por IA. 

As eleições no Bangladesh são uma disputa acesa entre a atual primeira-ministra, Sheikh Hasina, e a oposição, o Partido Nacionalista do Bangladesh. 

Numerosos relatórios chamam a atenção para o facto de grupos pró-governamentais utilizarem estas ferramentas para produzir clips noticiosos gerados por IA, concebidos para influenciar a opinião pública.

Por exemplo, num desses clips, um pivot de notícias do Bangladesh, criado pela IA, critica os EUA, o que reflecte a posição do atual governo. 

Outro exemplo são os vídeos falsos com o objetivo de desacreditar figuras da oposição, mostrando-as a tomar posições impopulares em questões sensíveis como o apoio a Gaza, um assunto de debate extremamente importante neste país de 175 milhões de habitantes e de maioria muçulmana.

A desinformação e a desinformação profunda tornaram-se, sem dúvida, os riscos mais imediatos e prementes da IA. Só esta semana é que o Presidente russo Vladimir Putin foi confrontado com uma cópia de si próprio em IA numa conferência de imprensa - um estudante estava a utilizá-la para fazer uma observação sobre falsificações profundas numa sessão de perguntas e respostas transmitida em direto pela televisão. 

As eleições na Eslováquia foram afectadas por desinformação nas redes sociais nas últimas 48 horas antes da hora do correio, altura em que os meios de comunicação social estão proibidos de discutir notícias políticas. 

Grandes empresas de tecnologia como a Google e a Meta estão a começar a implementar políticas para anúncios políticos, incluindo a exigência de revelar alterações digitais. No entanto, até à data, estas medidas parecem fracas, especialmente em regiões que não atraem tanta atenção por parte destas empresas.

A regulamentação da IA, em geral, é essencialmente de domínio ocidental, sendo que os países em desenvolvimento não dispõem, na sua maioria, de regulamentação e direitos digitais, deixando as pessoas e os seus dados expostos à exploração. 

Como é que a tecnologia de falsificação profunda funciona?

Na sua essência, "deep fake" é um termo não técnico que descreve qualquer falsificação extremamente eficaz, normalmente criada com ferramentas de IA generativas. 

Um exemplo ilustrativo é o HeyGen, um gerador de vídeos com IA sediado em Los Angeles. Por uma módica taxa de subscrição, este serviço permite aos utilizadores criar clips com avatares de IA. 

Um desses vídeos, alegando a interferência dos EUA nas eleições do Bangladesh, circulou nas redes sociais. 

Uma vez que estes avatares de IA são tão realistas, passam frequentemente pelos filtros das redes sociais e o público em geral pode não reagir imediatamente. Algumas imagens falsas associadas à Conflito israelo-palestiniano chegou a milhões de pessoas antes de ser totalmente desmascarado como falso, por exemplo.

A ausência de ferramentas robustas de deteção de IA para conteúdos não ingleses agrava o problema.

À medida que a tecnologia de IA avança e se torna mais acessível, é imperativo que os organismos reguladores e as plataformas digitais desenvolvam e apliquem medidas eficazes para combater a desinformação.

Até agora, está a revelar-se uma tarefa intratável. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições