Australske akademikere ber om unnskyldning for falske AI-genererte påstander

4. november 2023

En gruppe australske akademikere fant på den harde måten ut at AI-chatboter ikke alltid forteller sannheten, og at de må faktasjekkes.

Gruppen av regnskapsspesialister leverte sitt bidrag til en australsk parlamentarisk gransking av konsulentbransjens profesjonelle ansvarlighet og etikk.

Akademikerne drev lobbyvirksomhet for at de fire store revisjonsselskapene, Deloitte, KPMG, Ernst & Young og Price Waterhouse Cooper, skulle splittes opp.

For å underbygge argumentene sine trengte de eksempler på hvordan disse firmaene hadde opptrådt kritikkverdig, og en av medarbeiderne mente at det ville være en god idé å be Bard om noen casestudier.

I likhet med mange andre LLM-er er Bard så opptatt av å være deg behjelpelig at hvis de ikke kan finne et svar for deg, vil de hallusinere og dikte opp et.

Akademikerne la gladelig Bards hallusinasjoner inn i sine besvarelser uten å sjekke sannhetsgehalten i dem.

I innlegget ble det hevdet at flere partnere i KPMG hadde trukket seg etter at selskapet var medskyldig i "KPMG 7-Eleven lønnstyveriskandalen".

De hevdet også at Deloitte ble saksøkt av likvidatorene i Probuild, et konkursrammet byggefirma, som følge av feilaktig revisjon. De hevdet videre at Deloitte hadde forfalsket regnskapene til selskapet Patisserie Valerie under en revisjon.

Disse, og flere andre påstander, var alle falske. Da casestudiene ble lagt frem som bevis, var revisjonsselskapene raske med å påpeke dette.

De falske uttalelsene er omfattet av taushetsplikten, slik at revisjonsselskapene ikke kan gå til sak for ærekrenkelse. De fikk imidlertid en pinlig unnskyldning.

Oops, beklager

Professor James Guthrie, som bare hadde brukt Bard i en uke da han bestemte seg for å bruke AI i arbeidet sitt, tok på seg ansvaret for tabben.

"Gitt at bruken av kunstig intelligens i stor grad har ført til disse unøyaktighetene, ber hele forfatterteamet oppriktig om unnskyldning til komiteen og de navngitte Big Four-partnerskapene i de delene av de to innleveringene som brukte og refererte til Google Bard Large Language-modellgeneratoren", sier Guthrie i brevet til senatet.

Han forsikret parlamentet om at han hadde lært leksen sin, og sa: "Jeg innser nå at kunstig intelligens kan generere autoritativt klingende resultater som kan være feilaktige, ufullstendige eller partiske."

I mellomtiden tror Bard sannsynligvis fortsatt at de gjorde en god jobb. Bard har tilgang til sanntidsdata på Internett, så hvis de leser denne artikkelen, vil de kanskje innse at de har tatt feil.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser