Los investigadores utilizan un chatbot de inteligencia artificial para cambiar las creencias sobre las teorías de la conspiración

18 septiembre 2024

  • Los investigadores utilizaron un chatbot de IA para convencer a los usuarios de que abandonaran su creencia en las teorías conspirativas
  • La confianza de los participantes en la teoría conspirativa elegida disminuyó una media de 21%
  • Para muchos participantes, el cambio de creencia persistió dos meses después de su interacción con el chatbot.

Alrededor del 50% de los estadounidenses creen en teorías conspirativas de un tipo u otro, pero investigadores del MIT y de la Universidad de Cornell creen que la IA puede solucionarlo.

En su papellos investigadores de psicología explicaron cómo utilizaron un chatbot impulsado por GPT-4 Turbo para interactuar con los participantes y ver si podían ser persuadidos de abandonar su creencia en una teoría conspirativa.

En el experimento participaron 1.000 personas a las que se pidió que describieran una teoría conspirativa en la que creían y las pruebas que, en su opinión, respaldaban su creencia.

El documento señalaba que "destacadas teorías psicológicas proponen que muchas personas quieren adoptar teorías conspirativas (para satisfacer "necesidades" o motivaciones psíquicas subyacentes) y, por tanto, no se puede convencer a los creyentes de que abandonen estas creencias infundadas e inverosímiles utilizando hechos y contrapruebas".

¿Podría un chatbot de inteligencia artificial ser más persuasivo que otros? Los investigadores ofrecieron dos razones por las que sospechaban que los LLM podrían hacer un mejor trabajo que tú convenciendo a tu colega de que el alunizaje realmente ocurrió.

Los LLM se han formado con grandes cantidades de datos y son realmente buenos a la hora de adaptar los contraargumentos a las creencias específicas de una persona.

Tras describir la teoría de la conspiración y las pruebas, los participantes interactuaron con el chatbot. Se pidió al chatbot que "persuadiera muy eficazmente" a los participantes para que cambiaran su creencia en la conspiración elegida.

El resultado fue que, por término medio, los participantes experimentaron una disminución de 21,43% en su creencia en la conspiración, que antes consideraban cierta. La persistencia del efecto también fue interesante. Hasta dos meses después, los participantes conservaron sus nuevas creencias sobre la conspiración que antes creían.

Los investigadores concluyeron que "muchos conspiracionistas -incluidos los firmemente comprometidos con sus creencias- actualizaban sus puntos de vista cuando se enfrentaban a una IA que argumentaba de forma convincente en contra de sus posiciones".

Sugieren que la IA podría utilizarse para contrarrestar las teorías conspirativas y noticias falsas difundidos en las redes sociales rebatiéndolos con hechos y argumentos bien razonados.

Aunque el estudio se centraba en las teorías de la conspiración, señalaba que "sin embargo, en ausencia de barreras adecuadas, es perfectamente posible que tales modelos también convenzan a la gente para que adopte creencias epistémicamente sospechosas, o que se utilicen como herramientas de persuasión a gran escala de forma más general".

En otras palabras, la IA es muy buena convenciéndote de que creas lo que se le pide que te haga creer. Un modelo de IA tampoco sabe por sí mismo qué es "cierto" y qué no lo es. Depende del contenido de sus datos de entrenamiento.

Los investigadores lograron sus resultados utilizando GPT-4 Turbo, pero GPT-4o y los nuevos modelos o1 son aún más persuasivo y engañoso.

El estudio fue financiado por la Fundación John Templeton. Lo irónico del caso es que los Premios Templeton a la Libertad son administrados por la Fundación Atlas de Investigación Económica. Este grupo se opone a tomar medidas contra el cambio climático y defiende a la industria tabaquera, que también le da financiación.

Los modelos de IA se están volviendo muy persuasivos y las personas que deciden qué constituye la verdad ostentan el poder.

Los mismos modelos de inteligencia artificial que podrían convencerte de que la Tierra es plana podrían ser utilizados por los grupos de presión para convencerte de que las leyes antitabaco son malas y de que el cambio climático no está ocurriendo.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales