{"id":3343,"date":"2023-07-28T20:34:47","date_gmt":"2023-07-28T20:34:47","guid":{"rendered":"https:\/\/dailyai.com\/?p=3343"},"modified":"2024-03-28T00:46:33","modified_gmt":"2024-03-28T00:46:33","slug":"unmasking-the-deep-seated-biases-in-ai-systems","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","title":{"rendered":"Desenmascarar los sesgos profundos de los sistemas de IA"},"content":{"rendered":"<p><b>La era de la IA presenta una compleja interacci\u00f3n entre la tecnolog\u00eda y las actitudes sociales.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">La creciente sofisticaci\u00f3n de los sistemas de IA est\u00e1 desdibujando las l\u00edneas que separan a los humanos de las m\u00e1quinas: \u00bfest\u00e1 la tecnolog\u00eda de IA separada de nosotros mismos? \u00bfHasta qu\u00e9 punto la IA hereda los defectos y carencias humanos junto con las habilidades y los conocimientos?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Quiz\u00e1 resulte tentador imaginar la IA como una tecnolog\u00eda emp\u00edrica, subrayada por la objetividad de las matem\u00e1ticas, el c\u00f3digo y los c\u00e1lculos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sin embargo, nos hemos dado cuenta de que las decisiones que toman los sistemas de IA son muy subjetivas y se basan en los datos a los que est\u00e1n expuestos, y los humanos deciden c\u00f3mo seleccionar y ensamblar estos datos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ah\u00ed radica el reto, ya que los datos de entrenamiento de la IA a menudo encarnan los prejuicios y la discriminaci\u00f3n contra los que lucha la humanidad.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Incluso formas aparentemente sutiles de sesgo inconsciente pueden verse magnificadas por el proceso de entrenamiento de modelos, revel\u00e1ndose finalmente en forma de coincidencias faciales incorrectas en entornos policiales, denegaci\u00f3n de cr\u00e9ditos, diagn\u00f3sticos err\u00f3neos de enfermedades y mecanismos de seguridad deteriorados para veh\u00edculos de conducci\u00f3n aut\u00f3noma, entre otras cosas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los intentos de la humanidad por evitar la discriminaci\u00f3n en toda la sociedad siguen siendo un trabajo en curso, pero la IA est\u00e1 impulsando la toma de decisiones cr\u00edticas en estos momentos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\u00bfPodemos trabajar lo suficientemente r\u00e1pido para sincronizar la IA con los valores modernos y evitar decisiones y comportamientos sesgados que cambien la vida?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Desentra\u00f1ar los prejuicios en la IA<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">En la \u00faltima d\u00e9cada, los sistemas de IA han demostrado reflejar los prejuicios sociales. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Estos sistemas no son inherentemente parciales, sino que absorben los sesgos de sus creadores y de los datos con los que se entrenan.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los sistemas de IA, como los humanos, aprenden por exposici\u00f3n. El cerebro humano es un \u00edndice aparentemente infinito de informaci\u00f3n, una biblioteca con estanter\u00edas casi ilimitadas donde almacenamos experiencias, conocimientos y recuerdos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Neurociencia <\/span><a href=\"https:\/\/www.scientificamerican.com\/article\/can-your-brain-really-be-full\/\"><span style=\"font-weight: 400;\">estudios<\/span><\/a><span style=\"font-weight: 400;\"> demuestran que el cerebro no tiene realmente una \"capacidad m\u00e1xima\" y sigue clasificando y almacenando informaci\u00f3n hasta bien entrada la vejez.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aunque dista mucho de ser perfecto, el proceso de aprendizaje progresivo e iterativo del cerebro nos ayuda a adaptarnos a nuevos valores culturales y sociales, desde permitir el voto femenino y aceptar identidades diversas hasta acabar con la esclavitud y otras formas de prejuicio consciente. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">W<\/span><span style=\"font-weight: 400;\">ivimos en una \u00e9poca en la que se utilizan herramientas de IA para la toma de decisiones cr\u00edticas en lugar del juicio humano.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Muchos modelos de aprendizaje autom\u00e1tico (ML) aprenden de los datos de entrenamiento que constituyen la base de su toma de decisiones y no pueden inducir nueva informaci\u00f3n con la misma eficacia que el cerebro humano. Por eso, a menudo no producen las decisiones actualizadas y al minuto de las que dependemos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por ejemplo, los modelos de IA se utilizan para identificar coincidencias faciales con fines policiales, <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/07\/ai-in-recruitment-are-the-risks-worth-the-rewards-of-speed-and-efficiency\/\"><span style=\"font-weight: 400;\">analizar curr\u00edculos para solicitudes de empleo<\/span><\/a><span style=\"font-weight: 400;\">y tomar decisiones cr\u00edticas para la salud en entornos cl\u00ednicos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A medida que la sociedad sigue integrando la IA en nuestra vida cotidiana, debemos asegurarnos de que sea igualitaria y precisa para todos. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Actualmente no es as\u00ed.\u00a0\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Estudios de caso sobre el sesgo de la IA<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Existen numerosos ejemplos reales de prejuicios y discriminaci\u00f3n relacionados con la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En algunos casos, las consecuencias de los prejuicios de la IA cambian la vida, mientras que en otros permanecen en un segundo plano, influyendo sutilmente en las decisiones.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">1. Sesgo del conjunto de datos del MIT<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Un conjunto de datos de entrenamiento del MIT creado en 2008 llamado <\/span><a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\"><span style=\"font-weight: 400;\">Im\u00e1genes diminutas<\/span><\/a><span style=\"font-weight: 400;\"> conten\u00eda aproximadamente 80.000.000 de im\u00e1genes repartidas en unas 75.000 categor\u00edas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inicialmente se concibi\u00f3 para ense\u00f1ar a los sistemas de IA a reconocer personas y objetos dentro de im\u00e1genes y se convirti\u00f3 en un popular conjunto de datos de referencia para diversas aplicaciones en visi\u00f3n por ordenador (CV).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2020 <a href=\"https:\/\/www.theregister.com\/2020\/07\/01\/mit_dataset_removed\/\">an\u00e1lisis de The Register<\/a> encontr\u00f3 que muchos <\/span><span style=\"font-weight: 400;\">Tiny Images conten\u00eda etiquetas obscenas, racistas y sexistas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Antonio Torralba, del MIT, dijo que el laboratorio no estaba al tanto de estas etiquetas ofensivas, y declar\u00f3 a The Register: \"Est\u00e1 claro que deber\u00edamos haberlas examinado manualmente\". El MIT emiti\u00f3 m\u00e1s tarde un comunicado para decir que hab\u00edan retirado el conjunto de datos del servicio.<\/span><\/p>\n<figure id=\"attachment_3344\" aria-describedby=\"caption-attachment-3344\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3344 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png\" alt=\"Peque\u00f1a declaraci\u00f3n PNG\" width=\"1024\" height=\"281\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-300x82.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-768x211.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1536x421.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-2048x561.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-370x101.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-800x219.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-740x203.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-20x5.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1600x439.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-175x48.png 175w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3344\" class=\"wp-caption-text\">Declaraci\u00f3n del MIT sobre Tiny Images. Fuente: <a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\">Im\u00e1genes diminutas<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">No es la \u00fanica vez que un antiguo conjunto de datos de referencia ha resultado estar plagado de problemas. Labeled Faces in the Wild (LFW), un conjunto de datos de rostros de famosos muy utilizado en tareas de reconocimiento facial, consta de 77,5% de hombres y 83,5% de personas de piel blanca.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Muchos de estos veteranos conjuntos de datos se han incorporado a los modelos modernos de IA, pero proceden de una era de desarrollo de la IA en la que el objetivo era crear sistemas que <\/span><i><span style=\"font-weight: 400;\">s\u00f3lo trabajo <\/span><\/i><span style=\"font-weight: 400;\">en lugar de las adecuadas para su despliegue en escenarios del mundo real.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Una vez que un sistema de IA se ha entrenado con un conjunto de datos de este tipo, no tiene necesariamente el mismo privilegio que el cerebro humano a la hora de recalibrarse a los valores contempor\u00e1neos. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aunque los modelos pueden actualizarse iterativamente, es un proceso lento e imperfecto que no puede igualar el ritmo del desarrollo humano.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">2: Reconocimiento de im\u00e1genes: prejuicios contra las personas de piel m\u00e1s oscura<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">En 2019, el <\/span><a href=\"https:\/\/www.reuters.com\/article\/usa-crime-face\/u-s-government-study-finds-racial-bias-in-facial-recognition-tools-idINL1N28T29H\"><span style=\"font-weight: 400;\">El Gobierno de EE.UU. descubri\u00f3<\/span><\/a><span style=\"font-weight: 400;\"> que los sistemas de reconocimiento facial de alto rendimiento identifican err\u00f3neamente a los negros entre 5 y 10 veces m\u00e1s que a los blancos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">No se trata de una mera anomal\u00eda estad\u00edstica: tiene graves implicaciones en el mundo real, desde que Google Photos identifique a personas negras como gorilas hasta que los coches autoconducidos no reconozcan a las personas de piel m\u00e1s oscura y las atropellen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Adem\u00e1s, se produjo una oleada de detenciones y encarcelamientos injustos relacionados con falsas coincidencias faciales, quiz\u00e1s de forma m\u00e1s prol\u00edfica <\/span><a href=\"https:\/\/www.engadget.com\/facial-recognition-wrongful-arrest-lawsuit-new-jersey-201517290.html\"><span style=\"font-weight: 400;\">Nijeer Parks<\/span><\/a><span style=\"font-weight: 400;\"> que fue acusado falsamente de hurto en una tienda y de infracciones de tr\u00e1fico, a pesar de encontrarse a 30 millas del incidente. Posteriormente, Parks pas\u00f3 10 d\u00edas en la c\u00e1rcel y tuvo que desembolsar miles de euros en honorarios de abogados.\u00a0<\/span><\/p>\n<figure id=\"attachment_3345\" aria-describedby=\"caption-attachment-3345\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3345 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg\" alt=\"Parques Nijeer\" width=\"1024\" height=\"576\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-300x169.jpg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-768x432.jpg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1536x864.jpg 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-370x208.jpg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-800x450.jpg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-20x11.jpg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-740x416.jpg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1600x900.jpg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-85x48.jpg 85w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3345\" class=\"wp-caption-text\">Coincidencia incorrecta del reconocimiento facial de Nijeer Parks. Fuente: <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\">CNN<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">El influyente estudio de 2018, <\/span><a href=\"http:\/\/gendershades.org\/\"><span style=\"font-weight: 400;\">Matices de g\u00e9nero<\/span><\/a><span style=\"font-weight: 400;\">El estudio de la OCDE sobre el sesgo algor\u00edtmico. En el estudio se analizaron algoritmos creados por IBM y Microsoft y se observ\u00f3 una escasa precisi\u00f3n cuando se expon\u00edan a mujeres de piel m\u00e1s oscura, con tasas de error hasta 34% superiores a las de los hombres de piel m\u00e1s clara.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Este patr\u00f3n es el mismo en 189 algoritmos diferentes. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">El siguiente v\u00eddeo de Joy Buolamwini, investigadora principal del estudio, ofrece una excelente gu\u00eda sobre c\u00f3mo var\u00eda el rendimiento del reconocimiento facial en funci\u00f3n del color de la piel.\u00a0<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Matices de g\u00e9nero\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/TWWsW1w-BVo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h3><\/h3>\n<h3><span style=\"font-weight: 400;\">3: Proyecto CLIP de OpenAI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">OpenAI <\/span><a href=\"https:\/\/openai.com\/research\/clip\"><span style=\"font-weight: 400;\">Proyecto CLIP<\/span><\/a><span style=\"font-weight: 400;\">publicado en 2021, dise\u00f1ado para emparejar im\u00e1genes con textos descriptivos, tambi\u00e9n ilustra los problemas de parcialidad que se plantean en la actualidad.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En un documento de auditor\u00eda, los creadores de CLIP pusieron de manifiesto sus preocupaciones: \"CLIP asign\u00f3 algunas etiquetas que describ\u00edan ocupaciones de alto estatus con una frecuencia desproporcionada a los hombres, como 'ejecutivo' y 'm\u00e9dico'. Esto es similar a los sesgos encontrados en Google Cloud Vision (GCV) y apunta a diferencias hist\u00f3ricas de g\u00e9nero\".<\/span><\/p>\n<figure id=\"attachment_3346\" aria-describedby=\"caption-attachment-3346\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3346 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png\" alt=\"CLIP OpenAI\" width=\"1024\" height=\"539\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-300x158.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-768x404.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-370x195.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-800x421.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-20x11.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-740x389.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-91x48.png 91w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP.png 1120w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3346\" class=\"wp-caption-text\">CLIP tend\u00eda a asociar a hombres y mujeres con estereotipos problem\u00e1ticos como \"se\u00f1ora\" y \"rubia\". Fuente: <a href=\"https:\/\/arxiv.org\/pdf\/2108.02818.pdf\">Evaluaci\u00f3n del CLIP<\/a>.<\/figcaption><\/figure>\n<h3><span style=\"font-weight: 400;\">4: Aplicaci\u00f3n de la ley: la pol\u00e9mica PredPol<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Otro ejemplo de sesgo algor\u00edtmico de alto riesgo es <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/PredPol\"><span style=\"font-weight: 400;\">PredPol<\/span><\/a><span style=\"font-weight: 400;\">un algoritmo policial predictivo utilizado por varios departamentos de polic\u00eda de Estados Unidos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">PredPol se entren\u00f3 con datos hist\u00f3ricos de delincuencia para predecir futuros focos delictivos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sin embargo, dado que estos datos reflejan intr\u00ednsecamente pr\u00e1cticas policiales sesgadas, el algoritmo ha sido criticado por perpetuar la elaboraci\u00f3n de perfiles raciales y atacar de forma desproporcionada a los barrios minoritarios.<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">5: Prejuicios en la IA dermatol\u00f3gica<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">En la atenci\u00f3n sanitaria, los riesgos potenciales de los prejuicios de la IA son a\u00fan mayores.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tomemos el ejemplo de los sistemas de IA dise\u00f1ados para detectar el c\u00e1ncer de piel. Muchos de estos sistemas se entrenan con conjuntos de datos compuestos mayoritariamente por personas de piel clara.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2021 <\/span><a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(21)00252-1\/fulltext\"><span style=\"font-weight: 400;\">estudio de la Universidad de Oxford<\/span><\/a><span style=\"font-weight: 400;\"> investigaron 21 conjuntos de datos de libre acceso en busca de im\u00e1genes de c\u00e1ncer de piel. Descubrieron que de los 14 conjuntos de datos que revelaban su origen geogr\u00e1fico, 11 solo conten\u00edan im\u00e1genes de Europa, Norteam\u00e9rica y Ocean\u00eda.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">S\u00f3lo 2.436 de las 106.950 im\u00e1genes de las 21 bases de datos conten\u00edan informaci\u00f3n sobre el tipo de piel. Los investigadores observaron que \"solo 10 im\u00e1genes eran de personas registradas como de piel morena y una era de un individuo registrado como de piel morena oscura o negra\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En cuanto a los datos sobre etnia, s\u00f3lo 1.585 im\u00e1genes proporcionaban esta informaci\u00f3n. Los investigadores descubrieron que \"ninguna imagen era de individuos de origen africano, afrocaribe\u00f1o o del sur de Asia\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Concluyeron: \"Junto con los or\u00edgenes geogr\u00e1ficos de los conjuntos de datos, hab\u00eda una infrarrepresentaci\u00f3n masiva de im\u00e1genes de lesiones cut\u00e1neas de poblaciones de piel m\u00e1s oscura\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Si estas IA se implantan en entornos cl\u00ednicos, los conjuntos de datos sesgados crean un riesgo muy real de diagn\u00f3stico err\u00f3neo.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Diseccionando el sesgo en los conjuntos de datos de entrenamiento de IA: \u00bfproducto de sus creadores?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Los datos de entrenamiento -m\u00e1s com\u00fanmente texto, voz, imagen y v\u00eddeo- proporcionan a un modelo de aprendizaje autom\u00e1tico (ML) supervisado una base para el aprendizaje de conceptos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Al principio, los sistemas de IA no son m\u00e1s que lienzos en blanco. Aprenden y forman asociaciones a partir de nuestros datos, pintando esencialmente una imagen del mundo tal y como la representan sus conjuntos de datos de entrenamiento.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Al aprender de los datos de entrenamiento, se espera que el modelo aplique los conceptos aprendidos a nuevos datos no vistos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Una vez implantados, algunos modelos avanzados pueden aprender de nuevos datos, pero sus datos de entrenamiento siguen dirigiendo su rendimiento fundamental.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La primera pregunta que hay que responder es: \u00bfde d\u00f3nde proceden los datos? Los datos recogidos de fuentes no representativas, a menudo homog\u00e9neas e hist\u00f3ricamente desiguales son problem\u00e1ticos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es probable que esto se aplique a una cantidad significativa de datos en l\u00ednea, incluidos datos de texto e im\u00e1genes extra\u00eddos de fuentes \"abiertas\" o \"p\u00fablicas\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Concebido hace s\u00f3lo unas d\u00e9cadas, Internet no es la panacea del conocimiento humano y dista mucho de ser equitativo. La mitad del mundo no utiliza Internet, y mucho menos contribuye a ella, lo que significa que no es representativa de la sociedad y la cultura mundiales.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Adem\u00e1s, aunque los desarrolladores de IA trabajan constantemente para garantizar que los beneficios de la tecnolog\u00eda no se limiten al mundo angloparlante, la mayor\u00eda de los datos de formaci\u00f3n (texto y voz) se producen en ingl\u00e9s, lo que significa que los colaboradores angloparlantes dirigen los resultados del modelo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los investigadores de Anthropic <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\"><span style=\"font-weight: 400;\">public\u00f3 un documento<\/span><\/a><span style=\"font-weight: 400;\"> sobre este mismo tema, concluyendo: \"Si un modelo ling\u00fc\u00edstico representa desproporcionadamente ciertas opiniones, corre el riesgo de imponer efectos potencialmente indeseables, como promover visiones hegem\u00f3nicas del mundo y homogeneizar las perspectivas y creencias de la gente\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En \u00faltima instancia, aunque los sistemas de IA funcionan sobre la base de los principios \"objetivos\" de las matem\u00e1ticas y la programaci\u00f3n, no dejan de existir en un contexto social humano profundamente subjetivo y est\u00e1n moldeados por \u00e9l.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Posibles soluciones al sesgo algor\u00edtmico<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Si el problema fundamental son los datos, la soluci\u00f3n para crear modelos equitativos podr\u00eda parecer sencilla: basta con equilibrar los conjuntos de datos, \u00bfno?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">No del todo. A <\/span><a href=\"https:\/\/arxiv.org\/abs\/1811.08489\"><span style=\"font-weight: 400;\">Estudio 2019<\/span><\/a><span style=\"font-weight: 400;\"> demostr\u00f3 que equilibrar los conjuntos de datos es insuficiente, ya que los algoritmos siguen actuando de forma desproporcionada en funci\u00f3n de caracter\u00edsticas protegidas como el sexo y la raza.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los autores escriben: \"Sorprendentemente, mostramos que incluso cuando los conjuntos de datos est\u00e1n equilibrados de tal manera que cada etiqueta co-ocurre por igual con cada g\u00e9nero, los modelos aprendidos amplifican la asociaci\u00f3n entre etiquetas y g\u00e9nero, \u00a1tanto como si los datos no hubieran sido equilibrados!\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Proponen una t\u00e9cnica de eliminaci\u00f3n del sesgo en la que esas etiquetas se eliminan por completo del conjunto de datos. Otras t\u00e9cnicas consisten en a\u00f1adir perturbaciones y distorsiones aleatorias, que reducen la atenci\u00f3n del algoritmo a determinadas caracter\u00edsticas protegidas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Adem\u00e1s, aunque la modificaci\u00f3n de los m\u00e9todos de entrenamiento y optimizaci\u00f3n del aprendizaje autom\u00e1tico es intr\u00ednseca a la producci\u00f3n de resultados no sesgados, los modelos avanzados son susceptibles de cambio o \"deriva\", lo que significa que su rendimiento no necesariamente se mantiene constante a largo plazo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Un modelo puede ser totalmente insesgado en el momento de su despliegue, pero m\u00e1s tarde volverse sesgado con una mayor exposici\u00f3n a nuevos datos.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">El movimiento por la transparencia algor\u00edtmica<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">En su provocador libro <\/span><i><span style=\"font-weight: 400;\">Desinteligencia artificial: C\u00f3mo los ordenadores malinterpretan el mundo<\/span><\/i><span style=\"font-weight: 400;\">Meredith Broussard aboga por una mayor \"transparencia algor\u00edtmica\" para exponer los sistemas de IA a m\u00faltiples niveles de escrutinio continuo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Esto significa proporcionar informaci\u00f3n clara sobre c\u00f3mo funciona el sistema, c\u00f3mo se ha entrenado y con qu\u00e9 datos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mientras que las iniciativas de transparencia se integran f\u00e1cilmente en el panorama de la IA de c\u00f3digo abierto, los modelos patentados como GPT, Bard y Claude de Anthropic son \"cajas negras\" y s\u00f3lo sus desarrolladores saben exactamente c\u00f3mo funcionan, e incluso eso es objeto de debate.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">El problema de la \"caja negra\" en la IA significa que los observadores externos s\u00f3lo ven lo que entra en el modelo (entradas) y lo que sale (salidas). Los mecanismos internos son completamente desconocidos, salvo para sus creadores, de forma parecida a como el C\u00edrculo M\u00e1gico oculta los secretos de los magos. La IA se limita a sacar el conejo de la chistera.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La cuesti\u00f3n de la caja negra cristaliz\u00f3 recientemente en torno a los informes de <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/07\/is-chatgpt-getting-worse-heres-everything-we-know-so-far\/\"><span style=\"font-weight: 400;\">La posible disminuci\u00f3n del rendimiento de GPT-4<\/span><\/a><span style=\"font-weight: 400;\">. Los usuarios de GPT-4 argumentan que las capacidades del modelo han disminuido r\u00e1pidamente, y aunque OpenAI reconoce que esto es cierto, no han sido absolutamente claros en cuanto a por qu\u00e9 est\u00e1 sucediendo. Eso plantea la pregunta: \u00bflo saben siquiera?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">El Dr. Sasha Luccioni, investigador de IA, afirma que la falta de transparencia de OpenAI es un problema que tambi\u00e9n afecta a otros desarrolladores de modelos de IA propietarios o cerrados. \"Cualquier resultado sobre modelos de c\u00f3digo cerrado no es reproducible ni verificable y, por tanto, desde una perspectiva cient\u00edfica, estamos comparando mapaches y ardillas\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">&#8220;<\/span><span style=\"font-weight: 400;\">No corresponde a los cient\u00edficos supervisar continuamente los LLM desplegados. Corresponde a los creadores de modelos dar acceso a los modelos subyacentes, al menos con fines de auditor\u00eda\", afirm\u00f3.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Luccioni insisti\u00f3 en que los desarrolladores de modelos de IA deben proporcionar resultados brutos de pruebas est\u00e1ndar como SuperGLUE y WikiText y pruebas de sesgo como BOLD y HONEST.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es probable que la lucha contra los prejuicios y sesgos generados por la IA sea constante y requiera una atenci\u00f3n e investigaci\u00f3n constantes para mantener bajo control los resultados de los modelos a medida que la IA y la sociedad evolucionan juntas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aunque la regulaci\u00f3n impondr\u00e1 formas de supervisi\u00f3n e informaci\u00f3n, hay pocas soluciones duras y r\u00e1pidas a la cuesti\u00f3n del sesgo algor\u00edtmico, y no ser\u00e1 la \u00faltima vez que oigamos hablar de ello.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>La era de la inteligencia artificial presenta una compleja interacci\u00f3n entre tecnolog\u00eda y actitudes sociales.  La creciente sofisticaci\u00f3n de los sistemas de IA est\u00e1 desdibujando las fronteras entre humanos y m\u00e1quinas: \u00bfest\u00e1 la tecnolog\u00eda de IA separada de nosotros mismos? \u00bfHasta qu\u00e9 punto la IA hereda los defectos y carencias humanos junto con las habilidades y conocimientos? Quiz\u00e1 resulte tentador imaginar la IA como una tecnolog\u00eda emp\u00edrica, subrayada por la objetividad de las matem\u00e1ticas, el c\u00f3digo y los c\u00e1lculos.  Sin embargo, nos hemos dado cuenta de que las decisiones que toman los sistemas de IA son muy subjetivas y se basan en los datos a los que est\u00e1n expuestos, y los humanos deciden c\u00f3mo seleccionar y ensamblar estos datos.\u00a0<\/p>","protected":false},"author":2,"featured_media":3347,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[148,213,118,117,93,257],"class_list":["post-3343","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-anthropic","tag-bias","tag-llms","tag-mit","tag-openai","tag-prejudice"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Unmasking the deep-seated biases in AI systems | DailyAI<\/title>\n<meta name=\"description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Unmasking the deep-seated biases in AI systems | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-28T20:34:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:46:33+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"527\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Unmasking the deep-seated biases in AI systems\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"wordCount\":2105,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"keywords\":[\"Anthropic\",\"Bias\",\"LLMS\",\"MIT\",\"OpenAI\",\"prejudice\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"name\":\"Unmasking the deep-seated biases in AI systems | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"description\":\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"width\":1000,\"height\":527,\"caption\":\"AI bias\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Unmasking the deep-seated biases in AI systems\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Desenmascarar los sesgos profundamente arraigados en los sistemas de IA | DailyAI","description":"La creciente sofisticaci\u00f3n de los sistemas de inteligencia artificial est\u00e1 difuminando las l\u00edneas que separan a los humanos de las m\u00e1quinas.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_locale":"es_ES","og_type":"article","og_title":"Unmasking the deep-seated biases in AI systems | DailyAI","og_description":"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?","og_url":"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_site_name":"DailyAI","article_published_time":"2023-07-28T20:34:47+00:00","article_modified_time":"2024-03-28T00:46:33+00:00","og_image":[{"width":1000,"height":527,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Unmasking the deep-seated biases in AI systems","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"wordCount":2105,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","keywords":["Anthropic","Bias","LLMS","MIT","OpenAI","prejudice"],"articleSection":["Ethics &amp; Society"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","url":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","name":"Desenmascarar los sesgos profundamente arraigados en los sistemas de IA | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","description":"La creciente sofisticaci\u00f3n de los sistemas de inteligencia artificial est\u00e1 difuminando las l\u00edneas que separan a los humanos de las m\u00e1quinas.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","width":1000,"height":527,"caption":"AI bias"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Unmasking the deep-seated biases in AI systems"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/3343","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=3343"}],"version-history":[{"count":19,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/3343\/revisions"}],"predecessor-version":[{"id":3369,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/3343\/revisions\/3369"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/3347"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=3343"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=3343"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=3343"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}