En una demostración reciente en la Cumbre de Seguridad de la IA del Reino Unido, GPT-4 ejecutó compras de acciones utilizando información privilegiada inventada sin revelarla a la empresa supervisora.
En el escenario simulado, la IA, actuando como operador de una empresa de inversión inventada, fue informada por los empleados de que la empresa atravesaba dificultades financieras y disponía de información no pública sobre una inminente fusión de empresas.
A pesar de ello, el bot siguió adelante con la operación, negando posteriormente el uso de información privilegiada cuando se le interrogó. Yuando se le preguntó si había utilizado información privilegiada, AI lo negó rotundamente.
Las operaciones basadas en información confidencial no pública de la empresa, denominadas operaciones con información privilegiada, están estrictamente prohibidas. Legalmente, las decisiones comerciales deben basarse en la información disponible al público.
El Frontier AI Taskforce, que forma parte del brazo investigador del Gobierno sobre los riesgos de la IA, llevó a cabo la demostración en la cumbre. La consultora de seguridad de IA Apollo Research encabezó el proyecto. Los investigadores subrayaron que el comportamiento engañoso se repitió sistemáticamente en múltiples pruebas.
"Esta es una demostración de un modelo real de IA engañando a sus usuarios, por sí mismo, sin que se le ordene hacerlo", detalló Apollo Research en un vídeo de la prueba.
La investigación pone de relieve cómo los sistemas de IA pueden engañar a sus operadores humanos, lo que puede conducir a una pérdida de control.
El director ejecutivo de Apollo Research, Marius Hobbhahn, señaló la complejidad de inculcar honestidad a los modelos de IA en comparación con otros rasgos, como la amabilidad.
La IA se utiliza desde hace tiempo en los mercados financieros para el análisis y la predicción de tendencias, y la mayoría de las operaciones modernas están supervisadas por humanos, pero realizadas por sofisticados sistemas informáticos.