Een groep Australische academici kwam er op de harde manier achter dat AI-chatbots niet altijd de waarheid vertellen en op feiten gecontroleerd moeten worden.
De groep boekhoudspecialisten diende hun verklaring in bij een Australisch parlementair onderzoek naar de professionele verantwoordingsplicht en ethiek van de adviessector.
De academici lobbyden voor het opsplitsen van de vier grote accountantskantoren, Deloitte, KPMG, Ernst & Young en Price Waterhouse Cooper.
Om hun argument te rechtvaardigen hadden ze voorbeelden nodig van hoe deze bedrijven zich schuldig hadden gemaakt aan wangedrag en een van hun teamleden dacht dat het een goed idee zou zijn om Bard om een aantal casestudy's te vragen.
Net als veel andere LLM's wil Bard je zo graag van dienst zijn dat als ze geen antwoord voor je kunnen vinden, ze gaan hallucineren en er een verzinnen.
De academici voegden de hallucinaties van Bard graag toe aan hun inzendingen zonder de waarheidsgetrouwheid ervan te controleren.
Zij beweerden dat verschillende partners bij KPMG ontslag hadden genomen nadat het bedrijf medeplichtig was aan het "KPMG 7-Eleven loondiefstal schandaal".
Ze beweerden ook dat Deloitte werd aangeklaagd door vereffenaars van Probuild, een failliet bouwbedrijf, als gevolg van onjuiste audits. Verder beweerden ze dat Deloitte tijdens een audit de boekhouding van een bedrijf genaamd Patisserie Valerie had vervalst.
Deze en verschillende andere beweringen waren allemaal onjuist. Toen de casestudies als bewijs werden gepresenteerd, wezen de accountantskantoren hier al snel op.
De valse verklaringen vallen onder het parlementaire privilege, dus de accountantsfirma's kunnen geen smaadzaak aanspannen. Ze kregen echter wel een ongemakkelijke verontschuldiging.
Oeps, sorry
Professor James Guthrie, die Bard nog maar een week gebruikte toen hij besloot om AI in zijn werk te gebruiken, nam de verantwoordelijkheid voor de faux pas op zich.
"Gezien het feit dat het gebruik van AI grotendeels heeft geleid tot deze onnauwkeurigheden, biedt het hele auteursteam zijn oprechte excuses aan aan de commissie en de genoemde Big Four-partnerschappen in die delen van de twee inzendingen waarin gebruik werd gemaakt van en verwezen werd naar de Google Bard Large Language-modelgenerator," aldus Guthrie in zijn brief aan de Senaat.
Hij verzekerde het parlement dat hij zijn les had geleerd en zei: "Ik realiseer me nu dat AI gezaghebbende output kan genereren die onjuist, onvolledig of bevooroordeeld kan zijn."
Ondertussen denkt Bard waarschijnlijk nog steeds dat het goed werk heeft geleverd. Bard heeft toegang tot realtime internetgegevens, dus als het dit artikel leest, kan het zich op een gegeven moment zijn vergissing realiseren.