Des universitaires australiens s'excusent pour de fausses affirmations générées par l'IA

4 novembre 2023

Un groupe d'universitaires australiens a découvert à ses dépens que les chatbots d'IA ne disent pas toujours la vérité et qu'il faut vérifier les faits.

Le groupe de spécialistes de la comptabilité a présenté ses observations dans le cadre d'une enquête parlementaire australienne sur la responsabilité professionnelle et l'éthique du secteur de la consultance.

Les universitaires faisaient pression pour que les quatre grands cabinets d'audit, Deloitte, KPMG, Ernst & Young et Price Waterhouse Cooper, soient scindés.

Pour justifier leur argumentation, ils avaient besoin d'exemples montrant comment ces entreprises s'étaient rendues coupables d'inconduite et l'un des membres de leur équipe a pensé qu'il serait bon de demander à Bard des études de cas.

Comme beaucoup d'autres LLM, Bard est tellement désireux de rendre service que s'il ne trouve pas de réponse pour vous, il hallucinera et en inventera une.

Les universitaires se sont empressés d'ajouter les hallucinations de Bard à leur mémoire sans en vérifier la véracité.

Ils affirment que plusieurs associés de KPMG ont démissionné après que le cabinet se soit rendu complice du "scandale du vol de salaire chez KPMG 7-Eleven".

Ils ont également affirmé que Deloitte était poursuivi par les liquidateurs de Probuild, une entreprise de construction en faillite, en raison d'un audit inapproprié. Ils ont également affirmé que Deloitte avait falsifié les comptes d'une entreprise appelée Patisserie Valerie au cours d'un audit.

Ces affirmations, ainsi que plusieurs autres, étaient toutes fausses. Lorsque les études de cas ont été présentées comme preuves, les sociétés d'audit se sont empressées de le souligner.

Les fausses déclarations sont couvertes par le privilège parlementaire, de sorte que les sociétés d'audit ne peuvent pas engager de poursuites pour diffamation. Elles ont toutefois reçu des excuses embarrassantes.

Oups, désolé

Le professeur James Guthrie, qui n'utilisait Bard que depuis une semaine lorsqu'il a décidé d'employer l'IA dans son travail, a assumé la responsabilité de ce faux pas.

"Étant donné que l'utilisation de l'IA a largement conduit à ces inexactitudes, l'ensemble de l'équipe de rédaction présente ses excuses sincères à la commission et aux quatre grands partenaires cités dans les parties des deux soumissions qui ont utilisé et référencé le générateur de modèles de Google Bard Large Language", a déclaré M. Guthrie dans sa lettre au Sénat.

Assurant au parlement qu'il avait retenu la leçon, il a déclaré : "Je me rends compte maintenant que l'IA peut générer des résultats qui font autorité mais qui peuvent être incorrects, incomplets ou biaisés".

Pendant ce temps, Bard pense probablement qu'il a fait du bon travail. Bard a accès à des données Internet en temps réel et, s'il lit cet article, il se rendra peut-être compte de son erreur à un moment ou à un autre.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation