Representantes del Banco de Inglaterra advierten contra el papel de la IA en las finanzas

12 de octubre de 2023

Banco de Inglaterra AI

Una nueva investigación del Banco de Inglaterra sostiene que los sistemas financieros podrían verse amenazados por una toma de decisiones sesgada de la IA.

Las nuevas investigaciones del Banco de Inglaterra sugieren que los algoritmos pueden reflejar sesgos inherentes a los conjuntos de datos y manifestar un trato injusto a consumidores o profesionales.

Kathleen Blake, analista del Banco de Inglaterra, expresó su preocupación por esta tendencia. Comentó que Discriminación y prejuicios alimentados por la IA podría poner en peligro los sistemas financieros al socavar la confianza.

Además, señaló que las empresas que despliegan este tipo de "IA sesgada o injusta" pueden exponerse a importantes riesgos jurídicos y de reputación, lo que daría lugar a un escrutinio por parte de los organismos reguladores. 

Además, el Ministerio de Ciencia, Innovación y Tecnología señaló: "Nos encontramos en una encrucijada en la historia de la humanidad, y dar marcha atrás sería una monumental oportunidad perdida para la humanidad".

Blake se refirió a algunos incidentes notables relacionados con la IA que incitaron a la parcialidad. Por ejemplo, un algoritmo desarrollado por Apple y Goldman Sachs para evaluar las solicitudes de tarjetas de crédito fue criticado por ofrecer a las mujeres límites de crédito más reducidos que a los hombres. 

Esta discrepancia llamó la atención del Departamento de Servicios Financieros del Estado de Nueva York en 2021.

Sus conclusiones afirmaron que, aunque el acto no fue intencionado, "mostró deficiencias en el servicio al cliente y la transparencia".

Blake también se refirió a Algoritmo de contratación de Amazony destacó su sesgo inherente. Describió: "Las candidatas obtuvieron una puntuación negativa porque el algoritmo se entrenó a partir de los currículos enviados a la empresa durante un periodo de 10 años y reflejaba el predominio masculino en el sector."

Esto llevó a Amazon a descontinuar la herramienta en 2018 después de darse cuenta de su injusta penalización de los candidatos que usaban términos como "capitán de club de ajedrez femenino."

El robot de reclutamiento sesgado de Amazon forma parte de todo un conjunto de modelos de IA prejuiciosos y sesgados que tienden a fracasan los grupos minoritarios y mujeres.

Integrar la IA en la infraestructura financiera sin un examen riguroso podría perpetuar los problemas de parcialidad y discriminación.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales