Australiska akademiker ber om ursäkt för falska AI-genererade påståenden

4 november 2023

En grupp australiensiska akademiker upptäckte den hårda vägen att AI-chattbottar inte alltid talar sanning och måste faktakontrolleras.

Gruppen av redovisningsspecialister lämnade sitt bidrag till en australiensisk parlamentarisk utredning om det professionella ansvaret och etiken inom konsultbranschen.

Akademikerna arbetade för att de fyra stora revisionsbyråerna, Deloitte, KPMG, Ernst & Young och Price Waterhouse Cooper, skulle delas upp.

För att motivera sina argument behövde de exempel på hur dessa företag hade gjort sig skyldiga till oegentligheter och en av deras medarbetare tyckte att det skulle vara en bra idé att be Bard om några fallstudier.

Liksom många andra LLM-skolor är Bard så angelägen om att vara till lags att om man inte kan hitta ett svar åt dig, så hallucinerar man och hittar på ett.

Akademikerna lade gladeligen till Bards hallucinationer i sin inlämning utan att kontrollera deras sanningshalt.

I deras inlaga hävdades att flera delägare i KPMG hade avgått efter att företaget varit delaktigt i "KPMG 7-Eleven wage theft scandal".

De hävdade också att Deloitte stämdes av likvidatorerna i Probuild, ett konkursat byggföretag, till följd av olämplig revision. De hävdade vidare att Deloitte förfalskat räkenskaperna för ett företag vid namn Patisserie Valerie under en revision.

Dessa, och flera andra påståenden, var alla falska. När fallstudierna presenterades som bevis var revisionsbyråerna snabba med att påpeka detta.

De falska inlagorna omfattas av parlamentarisk tystnadsplikt så revisionsbyråerna kan inte driva förtalsmål. De fick dock en besvärlig ursäkt.

Oj, förlåt.

Professor James Guthrie, som bara hade använt Bard i en vecka när han bestämde sig för att använda AI i sitt arbete, tog på sig ansvaret för fadäsen.

"Med tanke på att användningen av AI till stor del har lett till dessa felaktigheter ber hela författarteamet uppriktigt om ursäkt till kommittén och de namngivna Big Four-partnerskapen i de delar av de två inlagorna som använde och hänvisade till Google Bard Large Language-modellgeneratorn", säger Guthrie i sitt brev till senaten.

Han försäkrade parlamentet om att han hade lärt sig sin läxa och sa: "Jag inser nu att AI kan generera auktoritativt klingande resultat som kan vara felaktiga, ofullständiga eller partiska."

Under tiden tycker Bard förmodligen fortfarande att det gjorde ett bra jobb. Bard har tillgång till internetdata i realtid, så om de läser den här artikeln kanske de inser sitt misstag någon gång.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar