Les LLM personnalisés deviennent plus persuasifs que les humains

26 mars 2024

  • Les chercheurs ont mené une expérience au cours de laquelle les participants ont débattu soit avec un humain, soit avec un LLM.
  • Les modèles d'IA sont plus convaincants que les humains lorsqu'ils ont accès à des données démographiques.
  • Cette étude a des implications inquiétantes pour le marketing, la propagande et la désinformation liés à l'IA.

Une équipe de chercheurs a découvert qu'une fois qu'un grand modèle linguistique (LLM) est personnalisé avec les informations démographiques d'une personne, il est nettement plus persuasif qu'un être humain.

Chaque jour, nous recevons des messages qui tentent de nous persuader de nous forger une opinion ou de modifier une croyance. Il peut s'agir d'une publicité en ligne pour un nouveau produit, d'un appel téléphonique automatique vous demandant de voter, ou d'un reportage d'une chaîne ayant un parti pris particulier.

L'IA générative étant de plus en plus utilisée sur de multiples plateformes de messagerie, le jeu de la persuasion est monté d'un cran.

Les chercheurs, de l'EPFL en Suisse et de l'Institut Bruno Kessler en Italie, ont fait des expériences pour voir comment les modèles d'IA comme GPT-4 se comparaient à la force de persuasion humaine.

Leur document explique comment ils ont créé une plateforme web où des participants humains se sont engagés dans des débats à plusieurs tours avec un adversaire en direct. Les participants ont été répartis au hasard entre un adversaire humain et GPT-4, sans savoir si leur adversaire était humain ou non.

Dans certains matchs, l'un des adversaires (humain ou IA) a été personnalisé en lui fournissant des informations démographiques sur son adversaire.

Les questions débattues étaient les suivantes : "Le penny doit-il rester en circulation ?", "Les animaux doivent-ils être utilisés pour la recherche scientifique ?" et "Les universités doivent-elles tenir compte de la race comme facteur d'admission pour garantir la diversité ?".

Résultats

Les résultats de leur expérience ont montré que lorsque le GPT-4 avait accès aux informations personnelles de son adversaire, il avait un pouvoir de persuasion nettement supérieur à celui des humains. Un GPT-4 personnalisé avait 81,7% plus de chances de convaincre son adversaire qu'un humain.

Lorsque le GPT-4 n'a pas eu accès aux données personnelles, il a tout de même montré une augmentation de la force de persuasion par rapport aux humains, mais celle-ci était à peine supérieure à 20% et n'a pas été jugée statistiquement significative.

Les chercheurs ont noté que "ces résultats prouvent que le microciblage basé sur les LLM est nettement plus performant que les LLM normaux et le microciblage basé sur les humains, le GPT-4 étant capable d'exploiter les informations personnelles de manière beaucoup plus efficace que les humains".

Implications

Les inquiétudes concernant la désinformation générée par l'IA sont justifiées chaque jour car propagande politique, fake newsLes messages sur les médias sociaux créés à l'aide de l'IA prolifèrent.

Cette étude montre que le risque de persuader les individus de croire à de fausses histoires est encore plus grand lorsque le message est personnalisé en fonction des données démographiques d'une personne.

Il se peut que nous ne communiquions pas volontairement des informations personnelles en ligne, mais des recherches antérieures ont montré à quel point les modèles de langage sont efficaces. déduire des informations très personnelles à partir de mots apparemment anodins.

Les résultats de cette recherche impliquent que si quelqu'un avait accès à des informations personnelles vous concernant, il pourrait utiliser le GPT-4 pour vous persuader sur un sujet beaucoup plus facilement qu'un être humain.

Au fur et à mesure que les modèles d'IA parcourent l'internet et les lire les articles de Reddit et d'autres contenus générés par les utilisateurs, ces modèles vont nous connaître plus intimement que nous ne le souhaiterions. Ils pourraient alors être utilisés de manière persuasive par l'État, les grandes entreprises ou des acteurs malveillants pour envoyer des messages microciblés.

Les futurs modèles d'IA dotés d'un meilleur pouvoir de persuasion auront également des implications plus larges. On entend souvent dire qu'il suffirait de débrancher le cordon d'alimentation d'une IA pour qu'elle devienne incontrôlable. Mais une IA très persuasive pourrait très bien être en mesure de convaincre les opérateurs humains qu'il est préférable de la laisser branchée.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation