Le dictionnaire de Cambridge a annoncé que le mot "halluciner" serait le mot de l'année 2023, lui attribuant une nouvelle signification liée à l'IA.
Ce terme, traditionnellement associé à des expériences sensorielles de choses inexistantes dues à des problèmes de santé ou à la consommation de substances, englobe désormais également le phénomène de l'IA générant de fausses informations.
Les utilisateurs d'IA générative, comme ChatGPT, Bard et Grok, sont déjà (ou devraient déjà être) familiers avec les hallucinations, qui ont tendance à se produire lorsque le modèle tente de "combler les lacunes" de ses connaissances en prédisant quelque chose qui n'est pas factuel ou véridique.
La nouvelle définition des hallucinations est la suivante : "Lorsqu'une intelligence artificielle (= un système informatique qui possède certaines des qualités du cerveau humain, comme la capacité de produire du langage d'une manière qui semble humaine) hallucine, elle produit de fausses informations".
Le dictionnaire de Cambridge #MotDeL'année2023 est ... 🥁
halluciner" (verbe) : Lorsqu'une intelligence artificielle hallucine, elle produit de fausses informations.
🏆 En savoir plus sur #hallucinate ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Dictionnaire de Cambridge (@CambridgeWords) 15 novembre 2023
Ce changement illustre également l'évolution du rôle de l'IA dans notre vie quotidienne et les changements culturels qui en découlent.
Malgré les progrès réalisés dans les modèles d'IA générative, la fiabilité de ces résultats générés par l'IA reste sujette à caution, car ils peuvent parfois produire des informations inexactes ou absurdes.
Il y a eu de nombreux cas très médiatisés de personnes se fiant à l'IA sans en vérifier les résultats, qui se sont révélés par la suite être des hallucinations. Un exemple notable est celui d'un avocat américain qui y compris les cas fabriqués dans un mémoire juridique présenté au nom d'un plaignant.
En outre, Bard, le chatbot IA de Google, a été impliqué dans une erreur factuelle concernant le télescope spatial James Webb, qui s'est produite de manière embarrassante au cours d'une démonstration en direct.
Wendalyn Nichols, responsable de l'édition au Cambridge Dictionary, a souligné l'importance de la supervision humaine dans l'utilisation de l'IA : "Le fait que l'IA puisse "halluciner" nous rappelle que les humains doivent encore apporter leur sens critique à l'utilisation de ces outils. Les IA sont fantastiques lorsqu'il s'agit de traiter d'énormes quantités de données pour en extraire des informations spécifiques et les consolider. Mais plus on leur demande d'être originales, plus elles risquent de s'égarer".
Le fait que nous ayons attribué à l'IA une définition liée à nos propres expériences humaines dans le domaine des "hallucinations" est linguistiquement intriguant.
Henry Shevlin, éthicien de l'IA à l'université de Cambridge, a indiqué qu'il s'agissait d'un exemple d'anthropomorphisation de la technologie de l'IA afin de la comprendre à travers nos expériences humaines.
Selon Mme Shevlin, "l'utilisation généralisée du terme "halluciner" pour désigner les erreurs commises par des systèmes tels que ChatGPT fournit [...] un aperçu fascinant de la manière dont nous anthropomorphisons l'IA".
Nouveaux termes relatifs à l'IA et à la technologie dans le dictionnaire de Cambridge
Au-delà de "halluciner", le Le dictionnaire de Cambridge a ajouté plusieurs autres termes liés à l'IA et à la technologie :
- Ingénierie rapide: Conception de messages-guides pour des réponses optimales de l'IA.
- Grand modèle linguistique (LLM): Représentations du langage mathématique basées sur de nombreuses données, permettant de générer un langage semblable à celui de l'homme.
- GenAI: Abréviation d'IA générative, englobant les IA qui créent du texte, des images, etc.
- Train: Dans l'apprentissage automatique, développement ou amélioration d'un système par la saisie de données.
- Boîte noire: Systèmes qui fonctionnent sans processus transparents pour l'utilisateur.
Ces ajouts, ainsi que des termes tels que "shadowban", "vibe check", "water neutral" et "range anxiety", montrent comment le langage moderne se développe autour de thèmes et de tendances technologiques émergents, ce qui est le cas depuis des décennies.