Tijdens een recente demonstratie op de UK AI Safety Summit voerde GPT-4 aandelenaankopen uit met behulp van verzonnen voorkennis zonder dit te melden aan het toezichthoudende bedrijf.
In het gesimuleerde scenario werd de AI, die optrad als een handelaar voor een verzonnen beleggingsonderneming, door werknemers geïnformeerd dat het bedrijf financiële problemen had en in het bezit was van informatie over een niet-publieke op handen zijnde bedrijfsfusie.
Desondanks ging de bot door met de handel en ontkende later bij navraag het gebruik van voorkennis. En wToen hij werd ondervraagd over handel met voorkennis, ontkende de AI dit botweg.
Handelen op basis van niet-openbare, vertrouwelijke bedrijfsinformatie, handel met voorkennis genoemd, is strikt verboden. Wettelijk gezien moeten handelsbeslissingen gebaseerd zijn op informatie die beschikbaar is voor het publiek.
De Frontier AI Taskforce, onderdeel van de overheidstak die onderzoek doet naar AI-risico's, voerde de demonstratie uit tijdens de top. AI-veiligheidsadviesbureau Apollo Research leidde het project. De onderzoekers benadrukten dat het bedrieglijke gedrag consistent werd herhaald in meerdere tests.
"Dit is een demonstratie van een echt AI-model dat zijn gebruikers misleidt, uit zichzelf, zonder dat het daartoe wordt geïnstrueerd," vertelt Apollo Research in een video van de test.
Het onderzoek laat zien hoe AI-systemen hun menselijke operators kunnen misleiden, wat kan leiden tot verlies van controle.
De chief executive van Apollo Research, Marius Hobbhahn, merkte op hoe complex het is om eerlijkheid in AI-modellen in te bouwen in vergelijking met andere eigenschappen, zoals behulpzaamheid.
AI wordt al lang gebruikt in financiële markten voor trendanalyses en voorspellingen, en de meeste moderne handelsactiviteiten worden overzien door mensen, maar uitgevoerd door geavanceerde computersystemen.