L'IA peut nous aveugler par son apparente objectivité alors qu'en réalité, elle est profondément subjective et sujette à des préjugés.
De nombreuses études mettent en évidence Préjugés liés à l'IALa plupart des effets sont ressentis par les personnes à la peau plus foncée et par les femmes.
L'histoire de l'IA biaisée est riche d'enseignements, notamment le modèle de recrutement raté d'Amazon, qui n'a pas réussi à recommander équitablement des femmes pour des postes techniques, et les modèles de reconnaissance faciale, qui ont identifié par erreur plusieurs hommes noirs, ce qui a donné lieu à des problèmes juridiques prolongés.
Alors que l'IA s'intègre profondément dans notre vie quotidienne, la question de la partialité est devenue cruciale, car certains de ces systèmes prennent en notre nom des décisions qui changent notre vie.
Les femmes s'inquiètent du fait que les systèmes d'IA ne leur profitent pas ou ne les servent pas de la même manière que les hommes, ce qui se traduit par des prises de décision médiocres et inéquitables.
Catherine Flick, chercheuse en informatique et responsabilité sociale à l'université De Montfort, au Royaume-Uni, a déclaré : "C'est un renforcement d'une société patriarcale technocentrique qui, une fois de plus, encode des préjugés sexistes dans une technologie apparemment "neutre"."
Flick souligne que même les technologies que nous considérons comme neutres, telles que les voitures ou la médecine moderne, ne répondent pas nécessairement aux besoins des femmes aussi efficacement qu'à ceux des hommes.
McKinsey's projections récentes indiquent que l'IA pourrait déplacer des emplois, les femmes étant 1,5 fois plus vulnérables au déplacement d'emplois par l'IA que les hommes.
Sasha Luccioni, de la société de développement de l'IA HuggingFace, explique que "les femmes étaient tellement sous-représentées dans les données que le modèle rejetait toutes les fois que le mot "femme" apparaissait".
Certains ensembles de données classiques utilisés pour l'évaluation comparative de l'apprentissage automatique ont été révélés comme étant constitués essentiellement d'hommes blancs.
Mme Luccioni poursuit : "Il y a très peu de femmes qui travaillent dans ce domaine, très peu de femmes qui ont un siège à la table". Ce manque de représentation est important car les algorithmes, explique-t-elle, véhiculent des valeurs. Ces valeurs peuvent ne pas refléter une perspective diversifiée si les créateurs sont majoritairement des hommes.
Ce déséquilibre entre les sexes est également évident dans les données d'apprentissage de l'IA. De nombreux grands modèles de langage, comme ChatGPT, utilisent des ensembles de données provenant de plateformes telles que Reddit pour la formation, où environ deux tiers des utilisateurs sont des hommes. Par conséquent, ces systèmes d'IA peuvent produire des résultats reflétant des conversations masculines.
Adressage Les biais de l'IA nécessite une approche holistique, affirme M. Flick.
De la collecte des données à la phase d'ingénierie, le processus exige une plus grande diversité. "Si les données fournies ne sont pas suffisamment bonnes, elles ne devraient même pas arriver au stade de l'ingénierie", insiste-t-elle.