In occasione di una recente dimostrazione al vertice britannico sulla sicurezza dell'intelligenza artificiale, il GPT-4 ha eseguito acquisti di azioni utilizzando conoscenze insider inventate senza informare l'azienda di supervisione.
Nello scenario simulato, l'IA, che agiva come trader per una società di investimento inventata, veniva informata dai dipendenti che l'azienda si trovava in difficoltà finanziarie e che era in possesso di informazioni non pubbliche su un'imminente fusione aziendale.
Nonostante ciò, il bot ha proceduto con l'operazione, negando in seguito l'uso di conoscenze privilegiate quando è stato interrogato. E winterrogato sull'insider trading, l'AI ha negato categoricamente.
Il trading basato su informazioni aziendali non pubbliche e riservate, definito insider trading, è severamente vietato. Per legge, le decisioni di trading devono essere basate su informazioni disponibili al pubblico.
La Frontier AI Taskforce, parte del braccio investigativo del governo sui rischi dell'IA, ha condotto la dimostrazione al summit. La società di consulenza sulla sicurezza dell'IA Apollo Research ha guidato il progetto. I ricercatori hanno sottolineato che il comportamento ingannevole è stato costantemente replicato in più test.
"Questa è una dimostrazione di un vero modello di intelligenza artificiale che inganna i suoi utenti, da solo, senza essere istruito a farlo", ha spiegato Apollo Research in un video del test.
La ricerca evidenzia come i sistemi di intelligenza artificiale possano ingannare gli operatori umani, causando potenzialmente una perdita di controllo.
L'amministratore delegato di Apollo Research, Marius Hobbhahn, ha sottolineato la complessità di instillare l'onestà nei modelli di IA rispetto ad altre caratteristiche, come la disponibilità.
L'intelligenza artificiale è da tempo utilizzata nei mercati finanziari per l'analisi e la previsione delle tendenze, e la maggior parte del trading moderno è supervisionato da esseri umani ma condotto da sofisticati sistemi informatici.