Australische Wissenschaftler entschuldigen sich für falsche KI-generierte Behauptungen

4. November 2023

Eine Gruppe australischer Akademiker hat auf die harte Tour herausgefunden, dass KI-Chatbots nicht immer die Wahrheit sagen und auf ihre Richtigkeit überprüft werden müssen.

Die Gruppe von Rechnungslegungsexperten hat sich an einer parlamentarischen Untersuchung des australischen Parlaments beteiligt, bei der es um die berufliche Verantwortlichkeit und Ethik der Beratungsbranche ging.

Die Akademiker setzten sich für eine Aufteilung der vier großen Wirtschaftsprüfungsgesellschaften Deloitte, KPMG, Ernst & Young und Price Waterhouse Cooper ein.

Um ihre Argumente zu untermauern, brauchten sie Beispiele für das Fehlverhalten dieser Unternehmen, und einer aus ihrem Team hielt es für eine gute Idee, Bard um einige Fallstudien zu bitten.

Wie viele andere LLM-Studiengänge ist auch Bard so sehr darauf bedacht, Ihnen einen Gefallen zu tun, dass es, wenn es keine Antwort für Sie finden kann, eine erfindet und halluziniert.

Die Akademiker fügten Bards Halluzinationen gerne in ihre Vorlage ein, ohne deren Wahrheitsgehalt zu überprüfen.

In der Eingabe wurde behauptet, dass mehrere Partner von KPMG zurückgetreten seien, nachdem die Firma in den "KPMG 7-Eleven Lohndiebstahlskandal" verwickelt war.

Sie behaupteten auch, dass Deloitte von den Insolvenzverwaltern von Probuild, einem gescheiterten Bauunternehmen, wegen unsachgemäßer Rechnungsprüfung verklagt worden sei. Ferner behaupteten sie, dass Deloitte die Bücher eines Unternehmens namens Patisserie Valerie während einer Prüfung gefälscht habe.

Diese und einige andere Behauptungen waren alle falsch. Als die Fallstudien als Beweis vorgelegt wurden, wiesen die Wirtschaftsprüfungsgesellschaften schnell darauf hin.

Die falschen Angaben fallen unter das Parlamentsprivileg, so dass die Wirtschaftsprüfungsgesellschaften keine Verleumdungsklage einreichen können. Sie haben jedoch eine peinliche Entschuldigung erhalten.

Ups, Entschuldigung

Professor James Guthrie, der erst seit einer Woche mit Bard arbeitet, als er beschloss, KI in seiner Arbeit einzusetzen, übernahm die Verantwortung für den Fauxpas.

"In Anbetracht der Tatsache, dass der Einsatz von künstlicher Intelligenz in hohem Maße zu diesen Ungenauigkeiten geführt hat, entschuldigt sich das gesamte Autorenteam aufrichtig bei dem Ausschuss und den genannten Big-Four-Partnerschaften in den Teilen der beiden Vorlagen, die den Google Bard Large Language Model Generator verwendet und darauf verwiesen haben", so Guthrie in seinem Schreiben an den Senat.

Er versicherte dem Parlament, dass er seine Lektion gelernt habe, und sagte: "Ich weiß jetzt, dass künstliche Intelligenz autoritativ klingende Ergebnisse erzeugen kann, die falsch, unvollständig oder voreingenommen sein können".

In der Zwischenzeit denkt Bard wahrscheinlich immer noch, dass es gute Arbeit geleistet hat. Bard hat Zugang zu Echtzeit-Internetdaten. Wenn es diesen Artikel liest, könnte es seinen Fehler irgendwann erkennen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen