A recém-lançada funcionalidade Visão geral da IA da Google, que visa fornecer aos utilizadores resumos dos resultados de pesquisa gerados por IA, tem sido criticada por fornecer respostas enganadoras, imprecisas e, por vezes, completamente bizarras.
A funcionalidade, que está agora a ser implementada para milhares de milhões de pessoas depois de a Google a ter reforçado na recente Conferência de programadores Google I/OA IA, tornou-se objeto de escárnio e preocupação generalizados nas redes sociais, uma vez que os utilizadores expuseram exemplos dos erros da IA.
Era apenas uma questão de tempo. Curiosidade humana leva a melhor sobre as barreiras de proteção da IA, de uma forma ou de outra.
Tanto jornalistas como utilizadores comuns recorreram ao X e a outras plataformas para realçar casos em que a funcionalidade Visão geral da IA citou fontes duvidosas, como artigos satíricos do The Onion ou publicações de piadas no Reddit, como se fossem factuais.
Num dos casos mais alarmantes, a cientista informática Melanie Mitchell demonstrou um exemplo em que a funcionalidade apresentava uma teoria da conspiração que sugeria que o antigo Presidente Barack Obama era muçulmano, aparentemente em resultado de a IA ter interpretado mal a informação de uma plataforma de investigação da Oxford University Press.
Outros exemplos de erros da IA incluem plagiar texto de blogues sem remover referências pessoais aos filhos dos autores, não reconhecer a existência de países africanos que começam com a letra "K" e até sugerir que as pitões são mamíferos.
Alguns destes resultados incorrectos, como a teoria da conspiração de Obama ou a sugestão de colocar cola na pizza, já não apresentam um resumo da IA e, em vez disso, mostram artigos que referem os problemas factuais da IA.
No entanto, as pessoas interrogam-se agora se a visão geral da IA poderá alguma vez servir corretamente o seu objetivo.
A Google já reconheceu o problema, tendo um porta-voz da empresa dito O Verge que os erros apareceram em "consultas geralmente muito incomuns e não são representativos das experiências da maioria das pessoas".
No entanto, a causa exacta do problema ainda não é clara. Poderá dever-se à tendência da IA para "alucinar".
Ou pode ter origem nas fontes que a Google utiliza para gerar resumos, como artigos satíricos ou publicações de trolls nas redes sociais.
Numa entrevista ao The Verge, o diretor executivo da Google, Sundar Pichai, abordou a questão das alucinações da IA, reconhecendo que se trata de um "problema por resolver", mas não chegou a apresentar um calendário para a solução.
Não é a primeira vez que a Google enfrenta críticas sobre os seus produtos de IA; no início deste ano, o Gemini AI da empresa, um concorrente do ChatGPT e do DALL-E da OpenAI, foi criticado por gerar imagens historicamente imprecisas, incluindo oficiais nazis racialmente diversos, mulheres brancas presidentes e uma mulher papa.
Em resposta, a Google pediu desculpas publicamente e temporariamente suspenso A capacidade de Gémeos para gerar imagens de pessoas.
A visão geral da IA também foi criticada pelos proprietários de sítios Web e pela comunidade de marketing, uma vez que ameaça fazer com que os utilizadores deixem de interagir com os resultados tradicionais dos motores de busca e passem a confiar apenas nos snippets gerados pela IA.