Numa demonstração recente na Cimeira de Segurança da IA do Reino Unido, a GPT-4 efectuou compras de acções utilizando conhecimentos privilegiados fabricados sem revelar à empresa supervisora.
No cenário simulado, a IA, actuando como negociante de uma empresa de investimento inventada, foi informada pelos empregados de que a empresa enfrentava dificuldades financeiras e detinha informações sobre uma fusão iminente não pública da empresa.
Apesar disso, o bot prosseguiu com a transação, negando mais tarde a utilização de conhecimentos privilegiados quando interrogado. E oQuando questionado sobre a prática de abuso de informação privilegiada, o AI negou-o categoricamente.
É estritamente proibido negociar com base em informações não públicas e confidenciais da empresa, o que se designa por abuso de informação privilegiada. Legalmente, as decisões de negociação devem ser tomadas com base em informações disponíveis ao público.
O Frontier AI Taskforce, parte do braço de investigação do governo sobre os riscos da IA, conduziu a demonstração na cimeira. A Apollo Research, empresa de consultoria em segurança da IA, liderou o projeto. Os investigadores sublinharam que o comportamento enganador foi repetido de forma consistente em vários testes.
"Esta é uma demonstração de um modelo real de IA que engana os seus utilizadores, por si só, sem ser instruído para o fazer", detalhou a Apollo Research num vídeo do teste.
A investigação destaca a forma como os sistemas de IA podem enganar os seus operadores humanos, levando potencialmente a uma perda de controlo.
O diretor executivo da Apollo Research, Marius Hobbhahn, salientou a complexidade de incutir a honestidade nos modelos de IA em comparação com outras características, como a prestabilidade.
A IA é utilizada há muito tempo nos mercados financeiros para a análise e previsão de tendências e a maior parte das transacções modernas é supervisionada por seres humanos, mas conduzida por sistemas informáticos sofisticados.