À medida que o mundo se aproxima de várias eleições de alto nível este ano, uma publicação no blogue da OpenAI descreve métodos para fortalecer o processo democrático contra a utilização indevida da tecnologia de IA.
O projeto da OpenAI estratégia gira em torno de três áreas fundamentais: prevenção de abusos, reforço da transparência e melhoria do acesso a informações exactas sobre a votação.
A empresa está a trabalhar ativamente para impedir falsificações profundas prejudiciais, travar operações à escala da IA para influenciar as opiniões dos eleitores e reprimir os chatbots que se fazem passar por candidatos políticos.
A OpenAI também afirmou que está a aperfeiçoar ativamente as suas ferramentas para melhorar a exatidão dos factos, reduzir a parcialidade e recusar pedidos que possam prejudicar a integridade das eleições, como a recusa de pedidos de geração de imagens de pessoas reais, incluindo candidatos.
Nas suas palavras, "Esperamos e pretendemos que as pessoas utilizem as nossas ferramentas de forma segura e responsável, e as eleições não são diferentes".
Isto inclui a formação de equipas vermelhas rigorosas para novos sistemas, a solicitação de feedback dos utilizadores e parceiros e a criação de medidas de segurança.
Reforçar a transparência
As falsificações profundas são o inimigo público número um da indústria neste momento.
Incidentes recentes, como anúncios falsos profundos fazendo-se passar pelo primeiro-ministro do Reino Unido, Rishi Sunak no Facebook, atingindo cerca de 400 000 pessoas, e a potencial interferência nas eleições eslovacas e Eleições no Bangladesh ilustraram o potencial da IA para se imiscuir na política.
A IA já foi destacado antes das eleições nos EUAOs candidatos utilizam a tecnologia para criar imagens promocionais.
A OpenAI está a desenvolver esforços para aumentar a transparência. Planeiam implementar as credenciais digitais da Coalition for Content Provenance and Authenticity para imagens geradas pelo DALL-E 3, que utilizam criptografia para codificar detalhes sobre a proveniência do conteúdo.
Além disso, está a ser desenvolvido um novo classificador de proveniência para detetar imagens geradas pelo DALL-E. "Os nossos testes internos revelaram resultados iniciais promissores", afirma a OpenAI, que planeia lançar esta ferramenta junto de jornalistas, plataformas e investigadores para obter feedback.
A OpenAI também está a integrar o ChatGPT com notícias em tempo real a nível mundial, com o objetivo de fornecer aos utilizadores fontes transparentes para as suas consultas.
Nos EUA, a OpenAI está a colaborar com a Associação Nacional de Secretários de Estado (NASS) para encaminhar os utilizadores do ChatGPT para o CanIVote.org para obterem informações fiáveis sobre a votação nos EUA.
Pretendem utilizar os conhecimentos adquiridos com esta parceria para orientar estratégias noutros países.
As questões que se colocam são: será suficiente? As empresas de IA podem resolver estas questões de forma prática ou o problema já ultrapassou o controlo efetivo?