La IA puede cegarnos con su aparente objetividad cuando, en realidad, es profundamente subjetiva y susceptible de sesgo.
Numerosos estudios destacan Prejuicios relacionados con la IALa mayoría de los efectos afectan a las personas de piel más oscura y a las mujeres.
Hay muchas lecciones históricas sobre la IA sesgada, como el fallido modelo de contratación de Amazon, que no recomendó a las mujeres de forma justa para puestos tecnológicos, y los modelos de reconocimiento facial, que identificaron erróneamente a varios hombres negros, lo que dio lugar a prolongados problemas legales.
A medida que la IA se integra en nuestra vida cotidiana, la cuestión de la parcialidad se ha vuelto crítica, ya que algunos de estos sistemas toman en nuestro nombre decisiones que nos cambian la vida.
A las mujeres les preocupa que los sistemas de IA no les beneficien o sirvan igual que a los hombres, lo que se traduce en una toma de decisiones deficiente y poco equitativa.
Catherine Flick, investigadora de Informática y Responsabilidad Social de la Universidad De Montfort (Reino Unido), comentó: "Es un refuerzo de una sociedad patriarcal tecnocéntrica que, una vez más, codifica los prejuicios de género en una tecnología aparentemente 'neutral'".
Flick señala que incluso las tecnologías que consideramos neutras, como los coches o la medicina moderna, no necesariamente responden a las necesidades de las mujeres con la misma eficacia que a las de los hombres.
McKinsey proyecciones recientes indican que la IA podría desplazar puestos de trabajo, siendo las mujeres 1,5 veces más vulnerables que los hombres al desplazamiento de puestos de trabajo por la IA.
Hablando del fallido proyecto de reclutamiento de Amazon que prejuzgaba directamente las solicitudes que contenían la palabra "mujeres" o "femenino", la doctora Sasha Luccioni, de la empresa de desarrollo de IA HuggingFace, afirma: "Las mujeres estaban tan infrarrepresentadas en los datos que el modelo rechazaba esencialmente cada vez que aparecía 'mujeres'."
Se ha descubierto que algunos conjuntos de datos clásicos utilizados para la evaluación comparativa del aprendizaje automático están formados predominantemente por hombres blancos.
Luccioni prosigue: "Hay muy pocas mujeres trabajando en este campo, muy pocas mujeres sentadas a la mesa". Esta falta de representación es importante porque los algoritmos, explica, transmiten valores. Esos valores pueden no reflejar una perspectiva diversa si los creadores son predominantemente hombres.
Este desequilibrio de género también es evidente en los datos de entrenamiento de la IA. Muchos grandes modelos lingüísticos, como ChatGPT, utilizan conjuntos de datos de plataformas como Reddit para entrenarse, donde alrededor de dos tercios de los usuarios son hombres. Como resultado, estos sistemas de IA pueden producir resultados que reflejen conversaciones con sesgo masculino.
Dirección Prejuicios de la IA requiere un enfoque holístico, argumenta Flick.
Desde la recogida de datos hasta la fase de ingeniería, el proceso requiere una mayor diversidad. "Si los datos que se recogen no son lo bastante buenos, ni siquiera deberían llegar a la fase de ingeniería", insiste.