As críticas falsas são omnipresentes e inevitáveis, mas nunca foram tão difíceis de identificar.
Segundo algumas estimativas, 40% das avaliações da Amazon são falsasmas isto também se estende a sítios como o Trustpilot, o Tripadvisor e o Google Reviews.
Em abril, A CNBC noticiou que algumas críticas da Amazon revelam a sua origem ao iniciarem o texto com "As an AI language model..." No entanto, na sua maioria, as críticas falsas geradas por IA são difíceis de identificar a olho nu.
Num esforço para reprimir as críticas fraudulentas, a Comissão Federal do Comércio (FTC) discutiu recentemente o estabelecimento de regras para a proibição de críticas falsas e pagas, com sanções severas para quem as violar.
Michael Atleson, um advogado da Divisão de Práticas Publicitárias da FTC, disse: "Não sabemos - não temos mesmo forma de saber - até que ponto os maus actores estão realmente a utilizar qualquer uma destas ferramentas, e quanto pode ser gerado por bots ou por humanos".
No entanto, isso depende de distinguir as críticas falsas das verdadeiras, o que é extremamente difícil agora que a IA é linguisticamente precisa e tem conhecimentos sobre uma multiplicidade de assuntos.
A IA está a aumentar o nível das críticas falsas
A Fakespot, uma startup que utiliza IA para discernir críticas fraudulentas, registou um aumento de críticas falsas geradas por IA, de acordo com o CEO Saoud Khalifah. A empresa está agora a investir em técnicas concebidas para identificar críticas criadas por sistemas de IA, como o ChatGPT.
"O que é muito diferente hoje em dia é que as modelos têm conhecimentos ao ponto de poderem escrever sobre qualquer coisa", afirma Khalifah.
Outra questão é: quem pode dizer que alguém não está a utilizar a IA para o ajudar a escrever uma crítica autêntica?
As avaliações geradas por IA não são estritamente contra as políticas da Amazon. De acordo com um porta-voz da empresaA empresa permite que os clientes publiquem críticas criadas por IA, desde que sejam autênticas e cumpram as directrizes da política.
A questão fundamental é saber se a IA encarregada de detetar críticas falsas consegue ser mais inteligente do que a IA que as gera. Saoud Khalifah, da Fakespot, observou que as primeiras críticas falsas geradas por IA que a sua empresa detectou eram originárias da Índia e foram criadas por "quintas de críticas falsas".
"É definitivamente um teste difícil de passar para estas ferramentas de deteção", disse Bhuwan Dhingra, professor assistente de ciências informáticas na Universidade de Duke. "Porque se os modelos corresponderem exatamente à forma como os humanos escrevem algo, então não é possível distinguir entre os dois."
Ben Zhao, professor de ciências informáticas na Universidade de Chicago, argumentou de forma semelhante que é "quase impossível" que a IA apanhe eficazmente as críticas geradas pela IA.
"É uma perseguição contínua ao gato e ao rato, mas não há nada de fundamental que, no fim de contas, distinga um conteúdo criado por IA", afirmou.
Por enquanto, as críticas falsas continuarão a fazer parte do mobiliário da Internet, e é provável que se tornem cada vez mais difíceis de distinguir das verdadeiras, tanto para os humanos como para os sistemas avançados de IA encarregados de as identificar.
"É assustador para os consumidores", disse Teresa Murray, directora do gabinete de vigilância dos consumidores do U.S. Public Interest Research Group.
"A IA já está a ajudar as empresas desonestas a emitir críticas reais com um tom de conversa aos milhares numa questão de segundos."
Já lá vai o tempo das críticas falsas mal escritas - prepare-se para receber críticas de IA escritas com precisão que não consegue distinguir da realidade.