Австралийские ученые приносят извинения за ложные утверждения, сгенерированные искусственным интеллектом

4 ноября 2023 года

Группа австралийских ученых на собственном опыте убедилась, что чат-боты с искусственным интеллектом не всегда говорят правду и нуждаются в проверке фактов.

Группа специалистов по бухгалтерскому учету выступила с докладом на заседании австралийского парламента, посвященном вопросам профессиональной ответственности и этики в консалтинговой индустрии.

Академики лоббировали идею разделения большой четверки аудиторских фирм - Deloitte, KPMG, Ernst & Young и Price Waterhouse Cooper.

Чтобы обосновать свои доводы, им нужны были примеры того, как эти фирмы совершали неправомерные действия, и один из членов их команды решил, что было бы неплохо обратиться к Барду за примерами из практики.

Как и многие другие LLM, Bard так стремится к обязательности, что если не может найти для вас ответ, то галлюцинирует и придумывает его.

Академики с радостью включили галлюцинации Барда в свои материалы, не проверяя их правдивость.

В заявлении утверждалось, что несколько партнеров KPMG ушли в отставку после того, как компания стала соучастником "скандала с хищением заработной платы в KPMG 7-Eleven".

Они также утверждали, что на Deloitte подали в суд ликвидаторы обанкротившейся строительной компании Probuild в результате ненадлежащего аудита. Кроме того, они утверждали, что Deloitte фальсифицировала отчетность компании под названием Patisserie Valerie во время аудита.

Эти и некоторые другие утверждения оказались ложными. Когда в качестве доказательств были представлены конкретные примеры, аудиторские фирмы быстро указали на это.

На ложные материалы распространяется парламентская привилегия, поэтому аудиторские фирмы не могут подать иск о клевете. Тем не менее, они получили неловкие извинения.

Упс, извините

Профессор Джеймс Гатри, который пользовался Bard всего неделю, когда решил использовать ИИ в своей работе, взял на себя ответственность за этот промах.

"Учитывая, что использование искусственного интеллекта в значительной степени привело к этим неточностям, вся авторская группа приносит искренние извинения комитету и названным партнерствам "Большой четверки" в тех частях двух материалов, в которых использовался и упоминался генератор моделей Google Bard Large Language", - говорится в письме Гатри, направленном в Сенат.

Уверяя парламент, что он усвоил урок, он сказал: "Теперь я понимаю, что ИИ может генерировать авторитетные результаты, которые могут быть неверными, неполными или предвзятыми".

Тем временем Bard, вероятно, все еще думает, что проделал хорошую работу. У Bard есть доступ к интернет-данным в режиме реального времени, так что если она прочтет эту статью, то, возможно, в какой-то момент поймет свою ошибку.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения