Un groupe d'universitaires australiens a découvert à ses dépens que les chatbots d'IA ne disent pas toujours la vérité et qu'il faut vérifier les faits.
Le groupe de spécialistes de la comptabilité a présenté ses observations dans le cadre d'une enquête parlementaire australienne sur la responsabilité professionnelle et l'éthique du secteur de la consultance.
Les universitaires faisaient pression pour que les quatre grands cabinets d'audit, Deloitte, KPMG, Ernst & Young et Price Waterhouse Cooper, soient scindés.
Pour justifier leur argumentation, ils avaient besoin d'exemples montrant comment ces entreprises s'étaient rendues coupables d'inconduite et l'un des membres de leur équipe a pensé qu'il serait bon de demander à Bard des études de cas.
Comme beaucoup d'autres LLM, Bard est tellement désireux de rendre service que s'il ne trouve pas de réponse pour vous, il hallucinera et en inventera une.
Les universitaires se sont empressés d'ajouter les hallucinations de Bard à leur mémoire sans en vérifier la véracité.
Ils affirment que plusieurs associés de KPMG ont démissionné après que le cabinet se soit rendu complice du "scandale du vol de salaire chez KPMG 7-Eleven".
Ils ont également affirmé que Deloitte était poursuivi par les liquidateurs de Probuild, une entreprise de construction en faillite, en raison d'un audit inapproprié. Ils ont également affirmé que Deloitte avait falsifié les comptes d'une entreprise appelée Patisserie Valerie au cours d'un audit.
Ces affirmations, ainsi que plusieurs autres, étaient toutes fausses. Lorsque les études de cas ont été présentées comme preuves, les sociétés d'audit se sont empressées de le souligner.
Les fausses déclarations sont couvertes par le privilège parlementaire, de sorte que les sociétés d'audit ne peuvent pas engager de poursuites pour diffamation. Elles ont toutefois reçu des excuses embarrassantes.
Oups, désolé
Le professeur James Guthrie, qui n'utilisait Bard que depuis une semaine lorsqu'il a décidé d'employer l'IA dans son travail, a assumé la responsabilité de ce faux pas.
"Étant donné que l'utilisation de l'IA a largement conduit à ces inexactitudes, l'ensemble de l'équipe de rédaction présente ses excuses sincères à la commission et aux quatre grands partenaires cités dans les parties des deux soumissions qui ont utilisé et référencé le générateur de modèles de Google Bard Large Language", a déclaré M. Guthrie dans sa lettre au Sénat.
Assurant au parlement qu'il avait retenu la leçon, il a déclaré : "Je me rends compte maintenant que l'IA peut générer des résultats qui font autorité mais qui peuvent être incorrects, incomplets ou biaisés".
Pendant ce temps, Bard pense probablement qu'il a fait du bon travail. Bard a accès à des données Internet en temps réel et, s'il lit cet article, il se rendra peut-être compte de son erreur à un moment ou à un autre.