Académicos australianos se disculpan por falsas afirmaciones generadas por IA

4 de noviembre de 2023

Un grupo de académicos australianos descubrió por las malas que los chatbots de inteligencia artificial no siempre dicen la verdad y que es necesario contrastar los hechos.

El grupo de especialistas contables presentó su propuesta a una investigación parlamentaria australiana sobre la responsabilidad profesional y la ética del sector de la consultoría.

Los académicos presionaban para que las cuatro grandes empresas de auditoría, Deloitte, KPMG, Ernst & Young y Price Waterhouse Cooper, se dividieran.

Para justificar su argumento necesitaban ejemplos de cómo estas empresas habían incurrido en mala conducta y uno de su equipo pensó que sería buena idea pedir a Bard algunos estudios de casos.

Como muchos otros LLM, Bard tiene tantas ganas de complacerte que si no puede encontrar una respuesta para ti, alucinará y se inventará una.

Los académicos añadieron alegremente las alucinaciones de Bard a su presentación sin comprobar su veracidad.

En su escrito afirmaban que varios socios de KPMG habían dimitido después de que la empresa fuera cómplice del "escándalo de robo de salarios de KPMG 7-Eleven".

También afirmaban que Deloitte había sido demandada por los liquidadores de Probuild, una empresa de construcción en quiebra, como resultado de una auditoría inadecuada. Además, afirmaron que Deloitte falsificó las cuentas de una empresa llamada Patisserie Valerie durante una auditoría.

Estas y otras afirmaciones eran falsas. Cuando se presentaron los estudios de casos como prueba, las empresas de auditoría se apresuraron a señalarlo.

Las declaraciones falsas están amparadas por el secreto parlamentario, por lo que las empresas auditoras no pueden presentar demandas por difamación. Sin embargo, recibieron una incómoda disculpa.

Lo siento.

El profesor James Guthrie, que sólo llevaba una semana utilizando Bard cuando decidió emplear la IA en su trabajo, asumió la responsabilidad del paso en falso.

"Dado que el uso de la IA ha conducido en gran medida a estas inexactitudes, todo el equipo de autoría pide sinceras disculpas al comité y a las asociaciones Big Four nombradas en aquellas partes de las dos presentaciones que utilizaban y hacían referencia al generador de modelos Google Bard Large Language", dijo Guthrie en su carta al Senado.

Asegurando al parlamento que había aprendido la lección, dijo: "Ahora me doy cuenta de que la IA puede generar resultados con apariencia de autoridad que pueden ser incorrectos, incompletos o tendenciosos".

Mientras tanto, es probable que Bard siga pensando que hizo un buen trabajo. Bard tiene acceso a datos de Internet en tiempo real, así que si lee este artículo podría darse cuenta de su error en algún momento.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales