Группа австралийских ученых на собственном опыте убедилась, что чат-боты с искусственным интеллектом не всегда говорят правду и нуждаются в проверке фактов.
Группа специалистов по бухгалтерскому учету выступила с докладом на заседании австралийского парламента, посвященном вопросам профессиональной ответственности и этики в консалтинговой индустрии.
Академики лоббировали идею разделения большой четверки аудиторских фирм - Deloitte, KPMG, Ernst & Young и Price Waterhouse Cooper.
Чтобы обосновать свои доводы, им нужны были примеры того, как эти фирмы совершали неправомерные действия, и один из членов их команды решил, что было бы неплохо обратиться к Барду за примерами из практики.
Как и многие другие LLM, Bard так стремится к обязательности, что если не может найти для вас ответ, то галлюцинирует и придумывает его.
Академики с радостью включили галлюцинации Барда в свои материалы, не проверяя их правдивость.
В заявлении утверждалось, что несколько партнеров KPMG ушли в отставку после того, как компания стала соучастником "скандала с хищением заработной платы в KPMG 7-Eleven".
Они также утверждали, что на Deloitte подали в суд ликвидаторы обанкротившейся строительной компании Probuild в результате ненадлежащего аудита. Кроме того, они утверждали, что Deloitte фальсифицировала отчетность компании под названием Patisserie Valerie во время аудита.
Эти и некоторые другие утверждения оказались ложными. Когда в качестве доказательств были представлены конкретные примеры, аудиторские фирмы быстро указали на это.
На ложные материалы распространяется парламентская привилегия, поэтому аудиторские фирмы не могут подать иск о клевете. Тем не менее, они получили неловкие извинения.
Упс, извините
Профессор Джеймс Гатри, который пользовался Bard всего неделю, когда решил использовать ИИ в своей работе, взял на себя ответственность за этот промах.
"Учитывая, что использование искусственного интеллекта в значительной степени привело к этим неточностям, вся авторская группа приносит искренние извинения комитету и названным партнерствам "Большой четверки" в тех частях двух материалов, в которых использовался и упоминался генератор моделей Google Bard Large Language", - говорится в письме Гатри, направленном в Сенат.
Уверяя парламент, что он усвоил урок, он сказал: "Теперь я понимаю, что ИИ может генерировать авторитетные результаты, которые могут быть неверными, неполными или предвзятыми".
Тем временем Bard, вероятно, все еще думает, что проделал хорошую работу. У Bard есть доступ к интернет-данным в режиме реального времени, так что если она прочтет эту статью, то, возможно, в какой-то момент поймет свою ошибку.