Australske akademikere undskylder for falske AI-genererede påstande

4. november 2023

En gruppe australske akademikere fandt på den hårde måde ud af, at AI-chatbots ikke altid fortæller sandheden og skal faktatjekkes.

Gruppen af regnskabsspecialister gav deres bidrag til en australsk parlamentarisk undersøgelse af den professionelle ansvarlighed og etik i konsulentbranchen.

Akademikerne lobbyede for, at de fire store revisionsfirmaer, Deloitte, KPMG, Ernst & Young og Price Waterhouse Cooper, skulle splittes op.

For at retfærdiggøre deres argument havde de brug for eksempler på, hvordan disse firmaer havde begået forseelser, og en fra deres team mente, at det ville være en god idé at bede Bard om nogle casestudier.

Ligesom mange andre LLM'er er Bard så opsat på at være behjælpelig, at hvis de ikke kan finde et svar til dig, vil de hallucinere og opfinde et.

Akademikerne tilføjede gladeligt Bards hallucinationer til deres indlæg uden at tjekke deres sandfærdighed.

Deres indlæg hævdede, at flere partnere i KPMG var trådt tilbage, efter at firmaet var medskyldig i "KPMG 7-Eleven løntyveriskandalen".

De hævdede også, at Deloitte blev sagsøgt af likvidatorerne i Probuild, et konkursramt byggefirma, som følge af ukorrekt revision. De hævdede desuden, at Deloitte havde forfalsket regnskaberne for en virksomhed ved navn Patisserie Valerie under en revision.

Disse og flere andre påstande var alle falske. Da casestudierne blev præsenteret som bevismateriale, var revisionsfirmaerne hurtige til at påpege dette.

De falske indlæg er omfattet af parlamentarisk tavshedspligt, så revisionsfirmaerne kan ikke anlægge sag om ærekrænkelse. De fik dog en pinlig undskyldning.

Ups, undskyld

Professor James Guthrie, som kun havde brugt Bard i en uge, da han besluttede sig for at bruge AI i sit arbejde, tog ansvaret for fadæsen.

"I betragtning af at brugen af AI i høj grad har ført til disse unøjagtigheder, undskylder hele forfatterteamet oprigtigt over for udvalget og de navngivne Big Four-partnerskaber i de dele af de to indlæg, der brugte og henviste til Google Bard Large Language-modelgeneratoren", sagde Guthrie i sit brev til senatet.

Han forsikrede parlamentet om, at han havde lært sin lektie, og sagde: "Jeg er nu klar over, at AI kan generere autoritativt klingende output, som kan være forkert, ufuldstændigt eller forudindtaget."

I mellemtiden synes Bard sikkert stadig, at de gjorde et godt stykke arbejde. Bard har adgang til internetdata i realtid, så hvis de læser denne artikel, vil de måske indse deres fejl på et tidspunkt.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser