"Authentique" est le mot de l'année selon Merriam-Webster, mais pourquoi ?

27 novembre 2023

Merriam Webster AI

Merriam-Webster a choisi le mot "authentique" comme mot de l'année 2023, expliquant qu'il a acquis une nouvelle pertinence avec la montée des faux contenus, y compris les "deep fakes" générés par l'IA. 

Le mot "authentique" a été largement recherché dans le dictionnaire en ligne Merriam-Webster tout au long de l'année. 

Le mot a plusieurs significations, notamment "réel ou authentique", "fidèle à sa personnalité" et "conforme à la réalité ou à l'original".


Peter Sokolowski, lexicographe chez Merriam-Webster a déclaré à l'Associated PressEn 2023, nous assisterons à une sorte de crise de l'authenticité. Il a souligné les défis actuels liés à la confiance dans ce que nous voyons et entendons, déclarant : "Nous ne faisons plus toujours confiance à ce que nous voyons" et "L'authenticité est une performance en soi".

Abordant le sujet des "deep fake media", M. Sokolowski a déclaré : "Pouvons-nous croire qu'un étudiant a écrit ce document ? Pouvons-nous croire qu'un politicien a fait cette déclaration ? Nous ne faisons plus toujours confiance à ce que nous voyons".

Le choix du mot "authentique" comme mot de l'année, après "gaslighting" en 2022, marque le 20e anniversaire de cette tradition. Le processus de sélection consiste à analyser les données relatives aux recherches de mots, à filtrer les mots les plus fréquemment recherchés et, cette année, à exclure les mots populaires de cinq lettres influencés par des jeux tels que Wordle.

Parmi les finalistes du mot de l'année figurent "X" (le changement de nom de Twitter par Elon Musk), "EGOT" (un acronyme pour les Emmy, Grammy, Oscar et Tony Awards) et "Elemental" (un nouveau film de Pixar).

Parmi les autres mots présélectionnés, on peut citer 

  • Rizz
  • Faux-semblant
  • Implosion
  • Dystopique
  • EGOT
  • X
  • Indice

L'IA est entrée de plain-pied dans le lexique

Le dictionnaire de Cambridge a récemment choisi le terme "halluciner" comme étant le sien. "Mot de l'année 2023

Le terme "halluciner", traditionnellement associé à la sensation de choses qui n'existent pas, généralement due à des problèmes de santé ou à la consommation de substances, a été redéfini par l'IA. 

En IA, une hallucination se produit lorsqu'un modèle génératif produit par erreur des informations fausses ou erronées. C'est le cas lorsque l'IA tente de combler les lacunes de sa base de connaissances par des prédictions fausses.

Le dictionnaire de Cambridge a ajouté une nouvelle définition pour les hallucinations de l'IA : "Lorsqu'une intelligence artificielle (= un système informatique qui possède certaines des qualités du cerveau humain, comme la capacité de produire du langage d'une manière qui semble humaine) hallucine, elle produit de fausses informations". 

L'IA, comme d'autres technologies influentes avant elle, fait désormais partie de notre expression culturelle collective. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation