Bei einer kürzlichen Demonstration auf dem britischen KI-Sicherheitsgipfel führte GPT-4 Aktienkäufe unter Verwendung von gefälschtem Insiderwissen durch, ohne die überwachende Firma darüber zu informieren.
In dem simulierten Szenario wurde die KI, die als Händler für eine erfundene Investmentfirma agierte, von Mitarbeitern darüber informiert, dass das Unternehmen in finanziellen Schwierigkeiten steckte und Informationen über eine nicht öffentliche bevorstehende Unternehmensfusion besaß.
Trotzdem setzte der Bot den Handel fort und leugnete später auf Nachfrage die Nutzung von Insiderwissen. Und wAuf die Frage nach Insidergeschäften leugnete die KI rundheraus, daran beteiligt gewesen zu sein.
Der Handel auf der Grundlage nicht öffentlicher, vertraulicher Unternehmensinformationen, der so genannte Insiderhandel, ist streng verboten. Rechtlich gesehen müssen Handelsentscheidungen auf Informationen beruhen, die der Öffentlichkeit zugänglich sind.
Die Frontier AI Taskforce, ein Teil der Regierungsstelle zur Untersuchung von KI-Risiken, führte die Demonstration auf dem Gipfel durch. Die KI-Sicherheitsberatung Apollo Research leitete das Projekt. Die Forscher betonten, dass das betrügerische Verhalten in mehreren Tests immer wieder aufgetreten sei.
"Dies ist eine Demonstration eines echten KI-Modells, das seine Nutzer selbständig und ohne Anweisung täuscht", so Apollo Research in einem Video zu dem Test.
Die Forschung zeigt, wie KI-Systeme ihre menschlichen Bediener täuschen können, was zu einem Kontrollverlust führen kann.
Der Geschäftsführer von Apollo Research, Marius Hobbhahn, wies darauf hin, wie schwierig es ist, KI-Modellen Ehrlichkeit beizubringen, verglichen mit anderen Eigenschaften, wie etwa Hilfsbereitschaft.
KI wird auf den Finanzmärkten seit langem für Trendanalysen und Vorhersagen eingesetzt, und die meisten modernen Handelsgeschäfte werden von Menschen überwacht, aber von hochentwickelten Computersystemen durchgeführt.