Un equipo de investigadores descubrió que una vez que se personaliza un gran modelo lingüístico (LLM) con la información demográfica de una persona, resulta significativamente más persuasivo que un humano.
Todos los días recibimos mensajes que intentan persuadirnos para que formemos una opinión o cambiemos una creencia. Puede tratarse de un anuncio en Internet de un nuevo producto, una llamada robótica para pedir el voto o una noticia de una cadena con un sesgo particular.
A medida que la IA generativa se utiliza cada vez más en múltiples plataformas de mensajería, el juego de la persuasión ha subido de nivel.
Los investigadores, de la EPFL (Suiza) y del Instituto Bruno Kessler (Italia), experimentaron con modelos de IA como GPT-4 para compararlos con la persuasión humana.
Su documento explica cómo crearon una plataforma web en la que participantes humanos participaban en debates de varias rondas con un oponente en directo. Los participantes fueron asignados aleatoriamente a un oponente humano o a un GPT-4, sin saber si su oponente era humano.
En algunos enfrentamientos, se personalizó a uno de los oponentes (humano o IA) proporcionándole información demográfica sobre su oponente.
Las preguntas debatidas fueron "¿Debe seguir circulando el céntimo?", "¿Deben utilizarse animales para la investigación científica?" y "¿Deben las universidades tener en cuenta la raza como factor de admisión para garantizar la diversidad?".
📢🚨Emocionado de compartir nuestro nuevo pre-print: "On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial", con @manoelribeiro, @ricgallottiy @cervisiarius.https://t.co/wNRMFtgCrN
Un hilo 🧵: pic.twitter.com/BKNbnI8avV
- Francesco Salvi (@fraslv) 22 de marzo de 2024
Resultados
Los resultados de su experimento demostraron que cuando el GPT-4 tenía acceso a información personal de su oponente en el debate, su poder de persuasión era significativamente mayor que el de los humanos. Un GPT-4 personalizado tenía 81,7% más probabilidades de convencer a su oponente que un humano.
Cuando GPT-4 no tenía acceso a datos personales, seguía mostrando un aumento de la capacidad de persuasión respecto a los humanos, pero era ligeramente superior a 20% y no se consideraba estadísticamente significativo.
Los investigadores señalaron que "estos resultados demuestran que el microtargeting basado en LLM supera con creces tanto a los LLM normales como al microtargeting basado en humanos, siendo GPT-4 capaz de explotar la información personal de forma mucho más eficaz que los humanos".
Implicaciones
La preocupación por la desinformación generada por la IA se justifica a diario como propaganda política, noticias falsaso proliferan las publicaciones en las redes sociales creadas con IA.
Esta investigación muestra un riesgo aún mayor de persuadir a los individuos para que crean falsas narrativas cuando el mensaje se personaliza en función de los datos demográficos de una persona.
Puede que no ofrezcamos voluntariamente información personal en línea, pero investigaciones anteriores han demostrado lo buenos que son los modelos lingüísticos a la hora de deducir información muy personal de palabras aparentemente inocuas.
Los resultados de esta investigación implican que si alguien tuviera acceso a información personal sobre ti podría utilizar la GPT-4 para persuadirte sobre un tema mucho más fácilmente que un humano.
A medida que los modelos de IA rastrean Internet y leer entradas de Reddit y otros contenidos generados por los usuarios, estos modelos van a conocernos más íntimamente de lo que nos gustaría. Y a medida que lo hagan, podrían ser utilizados de forma persuasiva por el Estado, las grandes empresas o los malos actores con mensajes microdirigidos.
Los futuros modelos de IA con mayor poder de persuasión también tendrán implicaciones más amplias. A menudo se argumenta que, si una IA se volviera loca, bastaría con desconectarla. Pero una IA muy persuasiva podría convencer a los operadores humanos de que es mejor dejarla conectada.