En gruppe australske akademikere fandt på den hårde måde ud af, at AI-chatbots ikke altid fortæller sandheden og skal faktatjekkes.
Gruppen af regnskabsspecialister gav deres bidrag til en australsk parlamentarisk undersøgelse af den professionelle ansvarlighed og etik i konsulentbranchen.
Akademikerne lobbyede for, at de fire store revisionsfirmaer, Deloitte, KPMG, Ernst & Young og Price Waterhouse Cooper, skulle splittes op.
For at retfærdiggøre deres argument havde de brug for eksempler på, hvordan disse firmaer havde begået forseelser, og en fra deres team mente, at det ville være en god idé at bede Bard om nogle casestudier.
Ligesom mange andre LLM'er er Bard så opsat på at være behjælpelig, at hvis de ikke kan finde et svar til dig, vil de hallucinere og opfinde et.
Akademikerne tilføjede gladeligt Bards hallucinationer til deres indlæg uden at tjekke deres sandfærdighed.
Deres indlæg hævdede, at flere partnere i KPMG var trådt tilbage, efter at firmaet var medskyldig i "KPMG 7-Eleven løntyveriskandalen".
De hævdede også, at Deloitte blev sagsøgt af likvidatorerne i Probuild, et konkursramt byggefirma, som følge af ukorrekt revision. De hævdede desuden, at Deloitte havde forfalsket regnskaberne for en virksomhed ved navn Patisserie Valerie under en revision.
Disse og flere andre påstande var alle falske. Da casestudierne blev præsenteret som bevismateriale, var revisionsfirmaerne hurtige til at påpege dette.
De falske indlæg er omfattet af parlamentarisk tavshedspligt, så revisionsfirmaerne kan ikke anlægge sag om ærekrænkelse. De fik dog en pinlig undskyldning.
Ups, undskyld
Professor James Guthrie, som kun havde brugt Bard i en uge, da han besluttede sig for at bruge AI i sit arbejde, tog ansvaret for fadæsen.
"I betragtning af at brugen af AI i høj grad har ført til disse unøjagtigheder, undskylder hele forfatterteamet oprigtigt over for udvalget og de navngivne Big Four-partnerskaber i de dele af de to indlæg, der brugte og henviste til Google Bard Large Language-modelgeneratoren", sagde Guthrie i sit brev til senatet.
Han forsikrede parlamentet om, at han havde lært sin lektie, og sagde: "Jeg er nu klar over, at AI kan generere autoritativt klingende output, som kan være forkert, ufuldstændigt eller forudindtaget."
I mellemtiden synes Bard sikkert stadig, at de gjorde et godt stykke arbejde. Bard har adgang til internetdata i realtid, så hvis de læser denne artikel, vil de måske indse deres fejl på et tidspunkt.