Na Conferência de Segurança de Munique, uma coligação de 20 gigantes da tecnologia, incluindo a OpenAI, a Meta, a Microsoft e outros, declarou um esforço conjunto para combater os conteúdos enganosos da IA que influenciam as eleições em todo o mundo.
Esta medida surge no meio de preocupações crescentes de que as falsificações profundas geradas pela IA possam manipular os processos eleitorais, especialmente à medida que se aproximam eleições importantes em vários países este ano.
Já vimos as falsificações profundas têm um papel importante nas eleições do Paquistão, Indonésia, Eslováquia e Bangladesh, pelo menos.
Este novo acordo engloba compromissos no sentido de desenvolver ferramentas para detetar e tratar os meios de comunicação enganosos gerados por IA, sensibilizar o público para os conteúdos enganosos e tomar medidas rápidas para remover esses conteúdos das suas plataformas.
A verdade, porém, é que já ouvimos isto muitas vezes. Então, o que é que é diferente agora?
Embora os pormenores sobre os prazos de implementação permaneçam vagos, as empresas sublinharam a necessidade de uma abordagem colectiva para fazer face a esta ameaça em evolução.
As empresas tecnológicas comprometeram-se a implementar ferramentas de colaboração para detetar e mitigar a propagação de conteúdos eleitorais nocivos gerados por IA, incluindo técnicas como a marca de água para certificar a origem e as alterações dos conteúdos. Também se comprometeram a ser transparentes em relação aos seus esforços e a avaliar os riscos colocados pelos seus modelos de IA generativa.
"Penso que a utilidade deste (acordo) é a amplitude das empresas que o assinam", disse Nick Clegg, presidente de assuntos globais da Meta Platforms.
"É muito bom que as plataformas individuais desenvolvam novas políticas de deteção, proveniência, rotulagem, marcas de água, etc., mas, a menos que haja um compromisso mais alargado para o fazer de uma forma interoperável partilhada, vamos ficar presos a uma miscelânea de compromissos diferentes."
Mais uma vez, nada que já não tenhamos ouvido antes. Houve vários acordos interprofissionais, mas nenhum plano substancialmente eficaz para acabar com as falsificações profundas.
Por exemplo, A MLCommons colaborou com a Big Tech para definir os parâmetros de segurança, empresas empenhadas na utilização de marcas de águae aderiu ao Fórum do Modelo FrontierMais uma vez, para estabelecer uma "abordagem unificada". Estes três acordos sectoriais acabaram de me vir à cabeça, mas há certamente muitos outros.
As falsificações profundas não são fáceis de detetar, especialmente em grande escala. Tornaram-se tão próximas do real que a sua identificação através de IA ou de técnicas algorítmicas é excecionalmente difícil.
As empresas de tecnologia responderam marcando o conteúdo com metadados, identificando-o como gerado por IA, mas como é que isso identifica o objetivo da imagem?
Os metadados também podem ser facilmente retirados de um ficheiro. Além disso, haverá sempre empresas de IA que não cumprem os acordos e formas de contornar os controlos em vigor.
Dana Rao, Chief Trust Officer da Adobe, explicou como e porque é que este conteúdo foi eficaz, afirmando: "Há uma ligação emocional ao áudio, vídeo e imagens", disse ele. "O nosso cérebro está programado para acreditar nesse tipo de media."
De facto, as deep fakes parecem espalhar-se muito depois de serem declaradas falsas. Embora seja difícil quantificar o quanto alteram o nosso comportamento, a escala do seu impacto - com o conteúdo a ser visto por milhões de pessoas de cada vez - não é algo com que se possa correr riscos.
O facto é que podemos esperar mais incidentes e controvérsias relacionados com a IA.
A consciência individual e o pensamento crítico serão a maior arma da humanidade para combater os impactos negativos.