OpenAI debate métodos para atenuar a desinformação política gerada pela IA

16 de janeiro de 2024

Fuga de login da OpenAI

À medida que o mundo se aproxima de várias eleições de alto nível este ano, uma publicação no blogue da OpenAI descreve métodos para fortalecer o processo democrático contra a utilização indevida da tecnologia de IA. 

O projeto da OpenAI estratégia gira em torno de três áreas fundamentais: prevenção de abusos, reforço da transparência e melhoria do acesso a informações exactas sobre a votação.

A empresa está a trabalhar ativamente para impedir falsificações profundas prejudiciais, travar operações à escala da IA para influenciar as opiniões dos eleitores e reprimir os chatbots que se fazem passar por candidatos políticos.

A OpenAI também afirmou que está a aperfeiçoar ativamente as suas ferramentas para melhorar a exatidão dos factos, reduzir a parcialidade e recusar pedidos que possam prejudicar a integridade das eleições, como a recusa de pedidos de geração de imagens de pessoas reais, incluindo candidatos.

Nas suas palavras, "Esperamos e pretendemos que as pessoas utilizem as nossas ferramentas de forma segura e responsável, e as eleições não são diferentes". 

Isto inclui a formação de equipas vermelhas rigorosas para novos sistemas, a solicitação de feedback dos utilizadores e parceiros e a criação de medidas de segurança. 

Reforçar a transparência

As falsificações profundas são o inimigo público número um da indústria neste momento. 

Incidentes recentes, como anúncios falsos profundos fazendo-se passar pelo primeiro-ministro do Reino Unido, Rishi Sunak no Facebook, atingindo cerca de 400 000 pessoas, e a potencial interferência nas eleições eslovacas e Eleições no Bangladesh ilustraram o potencial da IA para se imiscuir na política. 

A IA já foi destacado antes das eleições nos EUAOs candidatos utilizam a tecnologia para criar imagens promocionais.

A OpenAI está a desenvolver esforços para aumentar a transparência. Planeiam implementar as credenciais digitais da Coalition for Content Provenance and Authenticity para imagens geradas pelo DALL-E 3, que utilizam criptografia para codificar detalhes sobre a proveniência do conteúdo. 

Além disso, está a ser desenvolvido um novo classificador de proveniência para detetar imagens geradas pelo DALL-E. "Os nossos testes internos revelaram resultados iniciais promissores", afirma a OpenAI, que planeia lançar esta ferramenta junto de jornalistas, plataformas e investigadores para obter feedback. 

A OpenAI também está a integrar o ChatGPT com notícias em tempo real a nível mundial, com o objetivo de fornecer aos utilizadores fontes transparentes para as suas consultas. 

Nos EUA, a OpenAI está a colaborar com a Associação Nacional de Secretários de Estado (NASS) para encaminhar os utilizadores do ChatGPT para o CanIVote.org para obterem informações fiáveis sobre a votação nos EUA. 

Pretendem utilizar os conhecimentos adquiridos com esta parceria para orientar estratégias noutros países.

As questões que se colocam são: será suficiente? As empresas de IA podem resolver estas questões de forma prática ou o problema já ultrapassou o controlo efetivo? 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições