Eine Gruppe australischer Akademiker hat auf die harte Tour herausgefunden, dass KI-Chatbots nicht immer die Wahrheit sagen und auf ihre Richtigkeit überprüft werden müssen.
Die Gruppe von Rechnungslegungsexperten hat sich an einer parlamentarischen Untersuchung des australischen Parlaments beteiligt, bei der es um die berufliche Verantwortlichkeit und Ethik der Beratungsbranche ging.
Die Akademiker setzten sich für eine Aufteilung der vier großen Wirtschaftsprüfungsgesellschaften Deloitte, KPMG, Ernst & Young und Price Waterhouse Cooper ein.
Um ihre Argumente zu untermauern, brauchten sie Beispiele für das Fehlverhalten dieser Unternehmen, und einer aus ihrem Team hielt es für eine gute Idee, Bard um einige Fallstudien zu bitten.
Wie viele andere LLM-Studiengänge ist auch Bard so sehr darauf bedacht, Ihnen einen Gefallen zu tun, dass es, wenn es keine Antwort für Sie finden kann, eine erfindet und halluziniert.
Die Akademiker fügten Bards Halluzinationen gerne in ihre Vorlage ein, ohne deren Wahrheitsgehalt zu überprüfen.
In der Eingabe wurde behauptet, dass mehrere Partner von KPMG zurückgetreten seien, nachdem die Firma in den "KPMG 7-Eleven Lohndiebstahlskandal" verwickelt war.
Sie behaupteten auch, dass Deloitte von den Insolvenzverwaltern von Probuild, einem gescheiterten Bauunternehmen, wegen unsachgemäßer Rechnungsprüfung verklagt worden sei. Ferner behaupteten sie, dass Deloitte die Bücher eines Unternehmens namens Patisserie Valerie während einer Prüfung gefälscht habe.
Diese und einige andere Behauptungen waren alle falsch. Als die Fallstudien als Beweis vorgelegt wurden, wiesen die Wirtschaftsprüfungsgesellschaften schnell darauf hin.
Die falschen Angaben fallen unter das Parlamentsprivileg, so dass die Wirtschaftsprüfungsgesellschaften keine Verleumdungsklage einreichen können. Sie haben jedoch eine peinliche Entschuldigung erhalten.
Ups, Entschuldigung
Professor James Guthrie, der erst seit einer Woche mit Bard arbeitet, als er beschloss, KI in seiner Arbeit einzusetzen, übernahm die Verantwortung für den Fauxpas.
"In Anbetracht der Tatsache, dass der Einsatz von künstlicher Intelligenz in hohem Maße zu diesen Ungenauigkeiten geführt hat, entschuldigt sich das gesamte Autorenteam aufrichtig bei dem Ausschuss und den genannten Big-Four-Partnerschaften in den Teilen der beiden Vorlagen, die den Google Bard Large Language Model Generator verwendet und darauf verwiesen haben", so Guthrie in seinem Schreiben an den Senat.
Er versicherte dem Parlament, dass er seine Lektion gelernt habe, und sagte: "Ich weiß jetzt, dass künstliche Intelligenz autoritativ klingende Ergebnisse erzeugen kann, die falsch, unvollständig oder voreingenommen sein können".
In der Zwischenzeit denkt Bard wahrscheinlich immer noch, dass es gute Arbeit geleistet hat. Bard hat Zugang zu Echtzeit-Internetdaten. Wenn es diesen Artikel liest, könnte es seinen Fehler irgendwann erkennen.