Les faux avis sont omniprésents et inévitables, mais ils n'ont jamais été aussi difficiles à identifier.
Selon certaines estimations, 40% des avis sur Amazon sont fauxLes sites tels que Trustpilot, Tripadvisor et Google Reviews sont également concernés.
En avril, CNBC a rapporté que certains avis Amazon trahissent leur origine en commençant leur rédaction par "En tant que modèle de langage d'IA...". Toutefois, dans la plupart des cas, les faux avis générés par l'IA sont difficiles à identifier à l'œil nu.
Afin de lutter contre les commentaires frauduleux, la Federal Trade Commission (FTC) a récemment discuté de l'établissement de règles interdisant les faux commentaires et les commentaires rémunérés, assorties de sanctions sévères pour toute personne qui les enfreindrait.
Michael Atleson, avocat à la division des pratiques publicitaires de la FTC, a déclaré : "Nous ne savons pas - nous n'avons vraiment aucun moyen de savoir - dans quelle mesure les mauvais acteurs utilisent réellement l'un de ces outils, et quelle proportion peut être générée par des robots ou par des humains".
Toutefois, il faut pour cela distinguer les faux avis des vrais, ce qui est extrêmement difficile maintenant que l'IA est linguistiquement précise et compétente dans une multitude de domaines.
L'IA renforce les faux avis
Fakespot, une startup qui déploie l'IA pour discerner les avis frauduleux, a enregistré des vagues de faux avis générés par l'IA, selon le PDG Saoud Khalifah. L'entreprise investit désormais dans des techniques conçues pour identifier les avis créés par des systèmes d'IA, tels que ChatGPT.
"Ce qui est très différent aujourd'hui, c'est que les mannequins sont si bien informées qu'elles peuvent écrire sur n'importe quel sujet", a déclaré Khalifah.
Par ailleurs, qui peut affirmer que quelqu'un n'utilise pas l'IA pour l'aider à rédiger un commentaire authentique ?
Les avis générés par l'IA ne sont pas strictement contraires à la politique d'Amazon. Selon un porte-parole de l'entrepriseLa société permet aux clients de publier des commentaires créés par l'IA, à condition qu'ils soient authentiques et qu'ils respectent les lignes directrices de la politique de l'entreprise.
La question clé est de savoir si l'IA chargée de détecter les faux avis peut être plus intelligente que l'IA qui les génère. Saoud Khalifah, de Fakespot, a indiqué que les premiers faux avis générés par l'IA que sa société a détectés provenaient d'Inde et avaient été créés par des "fermes de faux avis".
"C'est un test difficile à réussir pour ces outils de détection", a déclaré Bhuwan Dhingra, professeur adjoint d'informatique à l'université de Duke. "En effet, si les modèles correspondent exactement à la façon dont les humains écrivent quelque chose, il est impossible de faire la distinction entre les deux.
Ben Zhao, professeur d'informatique à l'université de Chicago, a également affirmé qu'il était "presque impossible" pour l'IA de détecter efficacement les critiques générées par l'IA.
"Il s'agit d'une véritable chasse au chat et à la souris, mais il n'y a rien de fondamental, en fin de compte, qui distingue un contenu créé par l'IA", a-t-il déclaré.
Pour l'instant, les faux avis continueront à faire partie des meubles de l'internet, et il est probable qu'ils deviendront de plus en plus difficiles à distinguer des vrais, tant pour les humains que pour les systèmes d'intelligence artificielle avancés chargés de les identifier.
"C'est terrifiant pour les consommateurs", a déclaré Teresa Murray, directrice du bureau de surveillance des consommateurs pour le U.S. Public Interest Research Group.
"L'IA aide déjà les entreprises malhonnêtes à produire des milliers d'avis authentiques sur un ton conversationnel en quelques secondes".
L'époque des faux avis mal rédigés est révolue - Préparez-vous à recevoir des commentaires d'IA rédigés avec précision, que vous ne pourrez pas distinguer de la réalité.