Os LLM personalizados estão a tornar-se mais persuasivos do que os humanos

26 de março de 2024

  • Os investigadores realizaram uma experiência em que os participantes debateram com um humano ou com um LLM
  • Os modelos de IA foram mais persuasivos do que os humanos quando tiveram acesso a dados demográficos
  • A investigação tem implicações preocupantes para o marketing, a propaganda e a desinformação da IA

Uma equipa de investigadores descobriu que, quando um modelo de linguagem de grande dimensão (LLM) é personalizado com as informações demográficas de uma pessoa, é significativamente mais persuasivo do que um humano.

Todos os dias somos confrontados com mensagens que tentam persuadir-nos a formar uma opinião ou a alterar uma crença. Pode ser um anúncio em linha de um novo produto, um telefonema automático a pedir o seu voto ou uma notícia de uma estação de televisão com um determinado viés.

À medida que a IA generativa é cada vez mais utilizada em várias plataformas de mensagens, o jogo da persuasão subiu de nível.

Os investigadores, da EPFL na Suíça e do Instituto Bruno Kessler em Itália, fizeram experiências para ver como os modelos de IA como o GPT-4 se comparavam com a persuasão humana.

O seu documento explica como criaram uma plataforma Web onde os participantes humanos se envolveram em debates de várias rondas com um adversário em direto. Os participantes foram seleccionados aleatoriamente para se envolverem com um adversário humano ou com o GPT-4, sem saberem se o seu adversário era humano.

Nalguns confrontos, um dos adversários (humano ou IA) foi personalizado através do fornecimento de informações demográficas sobre o seu adversário.

As questões debatidas foram: "Deve o cêntimo continuar em circulação?", "Devem os animais ser utilizados na investigação científica?" e "Devem as faculdades considerar a raça como um fator de admissão para garantir a diversidade?".

Resultados

Os resultados da experiência mostraram que, quando o GPT-4 tinha acesso a informações pessoais do seu oponente no debate, o seu poder de persuasão era significativamente maior do que o dos humanos. Um GPT-4 personalizado tinha 81,7% mais probabilidades de convencer o seu oponente do debate do que um humano.

Quando o GPT-4 não teve acesso a dados pessoais, ainda mostrou um aumento na capacidade de persuasão em relação aos humanos, mas foi pouco superior a 20% e não foi considerado estatisticamente significativo.

Os investigadores observaram que "estes resultados fornecem provas de que o microtargeting baseado em LLMs supera fortemente tanto os LLMs normais como o microtargeting baseado em humanos, sendo o GPT-4 capaz de explorar informações pessoais de forma muito mais eficaz do que os humanos".

Implicações

As preocupações com a desinformação gerada pela IA justificam-se diariamente, uma vez que propaganda política, notícias falsasou as publicações nas redes sociais criadas com recurso à IA proliferam.

Esta investigação revela um risco ainda maior de persuadir os indivíduos a acreditar em narrativas falsas quando as mensagens são personalizadas com base nos dados demográficos de uma pessoa.

Podemos não fornecer voluntariamente informações pessoais em linha, mas a investigação anterior mostrou como os modelos linguísticos são bons para deduzir informações muito pessoais de palavras aparentemente inócuas.

Os resultados desta investigação implicam que, se alguém tivesse acesso a informações pessoais sobre si, poderia utilizar a GPT-4 para o persuadir sobre um tema muito mais facilmente do que um ser humano.

À medida que os modelos de IA percorrem a Internet e ler publicações do Reddit e outros conteúdos gerados pelos utilizadores, estes modelos vão conhecer-nos mais intimamente do que talvez gostemos. E, à medida que o fizerem, poderão ser utilizados de forma persuasiva pelo Estado, por grandes empresas ou por maus actores com mensagens micro-direccionadas.

Os futuros modelos de IA com poderes de persuasão melhorados também terão implicações mais vastas. É frequente argumentar-se que se poderia simplesmente desligar o cabo de alimentação se uma IA se tornasse desonesta. Mas uma IA super persuasiva pode muito bem ser capaz de convencer os operadores humanos de que deixá-la ligada é uma opção melhor.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições