Une équipe de chercheurs a découvert qu'une fois qu'un grand modèle linguistique (LLM) est personnalisé avec les informations démographiques d'une personne, il est nettement plus persuasif qu'un être humain.
Chaque jour, nous recevons des messages qui tentent de nous persuader de nous forger une opinion ou de modifier une croyance. Il peut s'agir d'une publicité en ligne pour un nouveau produit, d'un appel téléphonique automatique vous demandant de voter, ou d'un reportage d'une chaîne ayant un parti pris particulier.
L'IA générative étant de plus en plus utilisée sur de multiples plateformes de messagerie, le jeu de la persuasion est monté d'un cran.
Les chercheurs, de l'EPFL en Suisse et de l'Institut Bruno Kessler en Italie, ont fait des expériences pour voir comment les modèles d'IA comme GPT-4 se comparaient à la force de persuasion humaine.
Leur document explique comment ils ont créé une plateforme web où des participants humains se sont engagés dans des débats à plusieurs tours avec un adversaire en direct. Les participants ont été répartis au hasard entre un adversaire humain et GPT-4, sans savoir si leur adversaire était humain ou non.
Dans certains matchs, l'un des adversaires (humain ou IA) a été personnalisé en lui fournissant des informations démographiques sur son adversaire.
Les questions débattues étaient les suivantes : "Le penny doit-il rester en circulation ?", "Les animaux doivent-ils être utilisés pour la recherche scientifique ?" et "Les universités doivent-elles tenir compte de la race comme facteur d'admission pour garantir la diversité ?".
📢🚨Excité de partager notre nouveau pré-print : "Sur la persuasion conversationnelle des grands modèles de langage : A Randomized Controlled Trial", avec @manoelribeiro, @ricgallottiet @cervisiarius.https://t.co/wNRMFtgCrN
Un fil 🧵 : pic.twitter.com/BKNbnI8avV
- Francesco Salvi (@fraslv) 22 mars 2024
Résultats
Les résultats de leur expérience ont montré que lorsque le GPT-4 avait accès aux informations personnelles de son adversaire, il avait un pouvoir de persuasion nettement supérieur à celui des humains. Un GPT-4 personnalisé avait 81,7% plus de chances de convaincre son adversaire qu'un humain.
Lorsque le GPT-4 n'a pas eu accès aux données personnelles, il a tout de même montré une augmentation de la force de persuasion par rapport aux humains, mais celle-ci était à peine supérieure à 20% et n'a pas été jugée statistiquement significative.
Les chercheurs ont noté que "ces résultats prouvent que le microciblage basé sur les LLM est nettement plus performant que les LLM normaux et le microciblage basé sur les humains, le GPT-4 étant capable d'exploiter les informations personnelles de manière beaucoup plus efficace que les humains".
Implications
Les inquiétudes concernant la désinformation générée par l'IA sont justifiées chaque jour car propagande politique, fake newsLes messages sur les médias sociaux créés à l'aide de l'IA prolifèrent.
Cette étude montre que le risque de persuader les individus de croire à de fausses histoires est encore plus grand lorsque le message est personnalisé en fonction des données démographiques d'une personne.
Il se peut que nous ne communiquions pas volontairement des informations personnelles en ligne, mais des recherches antérieures ont montré à quel point les modèles de langage sont efficaces. déduire des informations très personnelles à partir de mots apparemment anodins.
Les résultats de cette recherche impliquent que si quelqu'un avait accès à des informations personnelles vous concernant, il pourrait utiliser le GPT-4 pour vous persuader sur un sujet beaucoup plus facilement qu'un être humain.
Au fur et à mesure que les modèles d'IA parcourent l'internet et les lire les articles de Reddit et d'autres contenus générés par les utilisateurs, ces modèles vont nous connaître plus intimement que nous ne le souhaiterions. Ils pourraient alors être utilisés de manière persuasive par l'État, les grandes entreprises ou des acteurs malveillants pour envoyer des messages microciblés.
Les futurs modèles d'IA dotés d'un meilleur pouvoir de persuasion auront également des implications plus larges. On entend souvent dire qu'il suffirait de débrancher le cordon d'alimentation d'une IA pour qu'elle devienne incontrôlable. Mais une IA très persuasive pourrait très bien être en mesure de convaincre les opérateurs humains qu'il est préférable de la laisser branchée.