Gli accademici australiani si scusano per le false affermazioni generate dall'intelligenza artificiale

4 novembre 2023

Un gruppo di accademici australiani ha scoperto a proprie spese che le chatbot AI non dicono sempre la verità e devono essere verificate.

Il gruppo di specialisti in contabilità ha presentato le proprie osservazioni a un'inchiesta parlamentare australiana sulla responsabilità professionale e l'etica del settore della consulenza.

Gli accademici stavano facendo pressione affinché le quattro grandi società di revisione, Deloitte, KPMG, Ernst & Young e Price Waterhouse Cooper, venissero divise.

Per giustificare la loro argomentazione avevano bisogno di esempi di comportamenti scorretti da parte di queste aziende e uno dei loro collaboratori ha pensato che sarebbe stata una buona idea chiedere a Bard alcuni casi di studio.

Come molti altri LLM, Bard è così desideroso di soddisfare i suoi bisogni che se non riesce a trovare una risposta per voi, ne inventerà una.

Gli accademici aggiunsero volentieri le allucinazioni di Bard nella loro presentazione senza verificarne la veridicità.

Il loro documento sosteneva che diversi partner di KPMG si erano dimessi dopo che l'azienda era stata complice dello "scandalo KPMG 7-Eleven sul furto dei salari".

Hanno inoltre affermato che Deloitte è stata citata in giudizio dai liquidatori di Probuild, un'impresa edile fallita, a causa di una revisione contabile impropria. Hanno inoltre affermato che Deloitte ha falsificato i conti di una società chiamata Patisserie Valerie durante una revisione contabile.

Queste e molte altre affermazioni erano tutte false. Quando i casi di studio sono stati presentati come prove, le società di revisione si sono affrettate a sottolinearlo.

Le false dichiarazioni sono coperte dal privilegio parlamentare, quindi le società di revisione non possono intentare cause per diffamazione. Tuttavia, hanno ricevuto delle scuse imbarazzanti.

Ops, scusate

Il professor James Guthrie, che utilizzava Bard solo da una settimana quando ha deciso di impiegare l'intelligenza artificiale nel suo lavoro, si è assunto la responsabilità del passo falso.

"Dato che l'uso dell'IA ha portato in gran parte a queste imprecisioni, l'intero team di autori si scusa sinceramente con la commissione e con le partnership delle Big Four nominate nelle parti dei due documenti presentati che hanno utilizzato e fatto riferimento al generatore di modelli Google Bard Large Language", ha dichiarato Guthrie nella sua lettera al Senato.

Assicurando al parlamento di aver imparato la lezione, ha detto: "Ora mi rendo conto che l'IA può generare risultati autorevoli che possono essere errati, incompleti o distorti".

Nel frattempo, Bard probabilmente pensa ancora di aver fatto un buon lavoro. Bard ha accesso ai dati internet in tempo reale, quindi se legge questo articolo potrebbe rendersi conto dell'errore commesso.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni