O Meta anunciou uma mudança de política significativa no tratamento da publicidade política, exigindo que os anunciantes políticos revelem abertamente a utilização de software de IA de terceiros nos seus anúncios.
Isto aplica-se especificamente a anúncios que apresentam representações produzidas sinteticamente de pessoas e eventos que possam ter impacto em questões políticas ou sociais.
Além disso, a Meta proibirá a utilização do seu próprio software assistido por IA para criar anúncios relacionados com questões políticas e sociais e com questões relacionadas com a habitação, o emprego, o crédito, a saúde, os produtos farmacêuticos ou os serviços financeiros.
Notavelmente, A Meta lançou uma plataforma de IA generativa explicitamente concebido para gerar anúncios com IA em outubro, mas ainda pode ser utilizado fora dos nichos e tópicos listados.
Há cada vez mais provas de que as falsificações profundas geradas pela IA estão a distorcer percepções e opiniões.
A propósito de uma imagem amplamente divulgada de Donald Trump a abraçar o especialista em doenças infecciosas Dr. Anthony Fauci, Vince Lynch, um programador de IA, disse: "Tornou-se uma tarefa muito difícil para o observador casual perceber: Em que é que eu acredito aqui?". E continuou: "As empresas precisam de assumir a responsabilidade".
A decisão de proibir os anúncios de IA faz parte de uma iniciativa mais ampla da Meta para atenuar os potenciais riscos associados à IA generativa na publicidade, especialmente em domínios sensíveis e regulamentados.
Reflecte também uma continuação da história preocupante da empresa com a publicidade política, que tem sido um foco de controvérsia, especialmente após o ciclo eleitoral de 2016.
O fundador e diretor executivo da Meta, Mark Zuckerberg, já foi criticado pela forma como a plataforma lida com a desinformação política. Apesar das críticas, Zuckerberg tem defendido que permitir uma ampla margem de manobra para o discurso político é essencial para o discurso livre.
Desde então, a direção da Meta, incluindo Nick Clegg, o seu presidente para os assuntos mundiais, tem procurado obter orientações regulamentares sobre estas questões, em vez de se auto-impor regras estritas.
O sistema atual exige que os responsáveis por anúncios políticos se submetam a um processo de autorização e incluam uma etiqueta "pago por" nos anúncios.
A futura política de IA alargará estes esforços de transparência. Exigirá que as campanhas e os profissionais de marketing indiquem se foram utilizadas ferramentas de IA para modificar os anúncios. Os anúncios que indiquem a utilização de IA serão autorizados a ser publicados com uma nota sobre essa utilização.
A Meta declarou que não exigirá a divulgação de alterações que considere "inconsequentes ou imateriais", tais como simples retoques fotográficos. Os anúncios que pareçam utilizar IA sem a devida divulgação serão liminarmente rejeitados.
A empresa também avisou que as organizações que tentarem contornar este requisito de divulgação repetidamente serão penalizadas, embora os pormenores permaneçam desconhecidos.
A decisão da Meta de proibir ferramentas de IA para certas categorias de anúncios também pode ser um movimento estratégico para evitar possíveis desafios legais. A empresa já enfrentou ações judiciais, principalmente em 2019, quando o Departamento de Justiça a processou por permitir práticas discriminatórias de segmentação de anúncios.
O processo acabou por ser resolvido, com a Meta a concordar em modificar a sua tecnologia de anúncios e a pagar uma coima.
A Google já tinha atualizado as suas políticas em setembro e espera-se que outras empresas sigam o exemplo com regras semelhantes, com preocupações com os anúncios de IA a intensificar-se antes das eleições presidenciais dos EUA em 2024.