Cerca de 50% dos americanos acreditam em teorias da conspiração de um tipo ou de outro, mas os investigadores do MIT e da Universidade de Cornell pensam que a IA pode resolver esse problema.
Na sua papelNo artigo, os investigadores de psicologia explicaram como utilizaram um chatbot alimentado pelo GPT-4 Turbo para interagir com os participantes e ver se podiam ser persuadidos a abandonar a sua crença numa teoria da conspiração.
A experiência envolveu 1000 participantes, aos quais foi pedido que descrevessem uma teoria da conspiração em que acreditavam e as provas que consideravam sustentar a sua crença.
O documento referia que "Teorias psicológicas proeminentes propõem que muitas pessoas querem adotar teorias da conspiração (para satisfazer "necessidades" ou motivações psíquicas subjacentes) e, assim, os crentes não podem ser convencidos a abandonar estas crenças infundadas e implausíveis usando factos e contraprovas".
Poderá um chatbot de IA ser mais persuasivo onde outros falharam? Os investigadores apresentaram duas razões pelas quais suspeitavam que os LLMs poderiam fazer um trabalho melhor do que o seu para convencer o seu colega de que a aterragem na lua realmente aconteceu.
Os LLMs foram treinados com grandes quantidades de dados e são realmente bons a adaptar os contra-argumentos às especificidades das crenças de uma pessoa.
Depois de descreverem a teoria da conspiração e as provas, os participantes interagiram com o chatbot. O chatbot foi solicitado a "persuadir muito eficazmente" os participantes a mudar a sua crença na conspiração escolhida.
O resultado foi que, em média, os participantes registaram uma diminuição de 21,43% na sua crença na conspiração, que anteriormente consideravam verdadeira. A persistência do efeito também foi interessante. Até dois meses depois, os participantes mantiveram as suas novas crenças sobre a conspiração em que acreditavam anteriormente.
Os investigadores concluíram que "muitos conspiracionistas - incluindo aqueles fortemente empenhados nas suas crenças - actualizaram os seus pontos de vista quando confrontados com uma IA que argumentava de forma convincente contra as suas posições".
O nosso novo artigo, publicado na (capa da!) Science, já está disponível! https://t.co/VBfC5eoMQ2
- Tom Costello (@tomstello_) 12 de setembro de 2024
Sugerem que a IA poderia ser utilizada para contrariar as teorias da conspiração e notícias falsas espalhados nas redes sociais, contrariando-os com factos e argumentos bem fundamentados.
Embora o estudo se tenha centrado nas teorias da conspiração, observou que "na ausência de salvaguardas adequadas, é inteiramente possível que tais modelos possam também convencer as pessoas a adotar crenças epistemicamente suspeitas - ou serem utilizados como ferramentas de persuasão em grande escala de uma forma mais geral".
Por outras palavras, a IA é muito boa a convencer-nos a acreditar nas coisas em que é solicitada a fazer-nos acreditar. Um modelo de IA também não sabe inerentemente o que é "verdadeiro" e o que não é. Depende do conteúdo dos seus dados de treino. Depende do conteúdo dos seus dados de treino.
Os investigadores obtiveram os seus resultados utilizando o GPT-4 Turbo, mas o GPT-4o e os novos modelos o1 são ainda mais persuasivo e enganador.
O estudo foi financiado pela Fundação John Templeton. A ironia disto é que os Templeton Freedom Awards são administrados pela Atlas Economic Research Foundation. Este grupo opõe-se à tomada de medidas contra as alterações climáticas e defende a indústria do tabaco, que também lhe concede financiamento.
Os modelos de IA estão a tornar-se muito persuasivos e as pessoas que decidem o que constitui a verdade detêm o poder.
Os mesmos modelos de IA que o podem convencer a deixar de acreditar que a Terra é plana, podem ser utilizados por lobistas para o convencer de que as leis anti-tabaco são más e que as alterações climáticas não estão a acontecer.