La lotta per impedire che i sistemi di intelligenza artificiale siano influenzati dal genere

9 agosto 2023

Donne AI

L'intelligenza artificiale può accecarci con la sua apparente oggettività, mentre in realtà è profondamente soggettiva e soggetta a pregiudizi. 

Numerosi studi evidenziano Pregiudizi legati all'intelligenza artificiale, con la maggior parte degli effetti avvertiti dagli individui con la pelle più scura e dalle donne. 

Ci sono molte lezioni storiche di IA distorta, come il modello di reclutamento fallito di Amazon, che non è riuscito a raccomandare le donne in modo equo per i ruoli tecnologici, e i modelli di riconoscimento facciale, che hanno erroneamente identificato diversi uomini di colore, dando luogo a lunghe questioni legali. 

Man mano che l'intelligenza artificiale entra a far parte della nostra vita quotidiana, la questione dei pregiudizi è diventata cruciale, poiché alcuni di questi sistemi stanno prendendo decisioni che cambiano la vita per nostro conto.

Le donne sono preoccupate che i sistemi di IA non siano vantaggiosi o non servano loro allo stesso modo degli uomini, con il risultato di un processo decisionale povero e iniquo. 

Catherine Flick, ricercatrice di Informatica e Responsabilità sociale della De Montfort University, Regno Unito, ha commentato: "È un rafforzamento di una società patriarcale tecnocentrica che ancora una volta codifica i pregiudizi di genere in una tecnologia apparentemente 'neutra'". 

Flick sottolinea che anche le tecnologie che consideriamo neutre, come le automobili o la medicina moderna, non necessariamente rispondono alle esigenze delle donne con la stessa efficacia con cui rispondono a quelle degli uomini.

McKinsey proiezioni recenti indicano che l'IA potrebbe spostare posti di lavoro, con le donne che sono 1,5 volte più vulnerabili rispetto agli uomini.

Parlando del progetto di reclutamento fallito di Amazon che pregiudicava direttamente le candidature contenenti la parola "donne" o "femminile", la dottoressa Sasha Luccioni, della società di sviluppo di intelligenza artificiale HuggingFace, afferma: "Le donne erano così sottorappresentate nei dati che il modello avrebbe essenzialmente rifiutato ogni volta che fosse comparsa la parola 'donne'".

Alcuni dataset classici utilizzati per il benchmarking dell'apprendimento automatico (ML) sono stati rivelati come composti prevalentemente da uomini bianchi. 

Luccioni ha continuato: "Ci sono pochissime donne che lavorano nel settore, pochissime donne che hanno un posto a tavola". Questa mancanza di rappresentanza è importante perché gli algoritmi, spiega, sono portatori di valori. Questi valori potrebbero non riflettere una prospettiva diversificata se i creatori sono prevalentemente uomini.

Questo squilibrio di genere è evidente anche nei dati di addestramento dell'IA. Molti modelli linguistici di grandi dimensioni, come ChatGPT, utilizzano per l'addestramento set di dati provenienti da piattaforme come Reddit, dove circa due terzi degli utenti sono maschi. Di conseguenza, questi sistemi di IA possono produrre risultati che riflettono conversazioni di genere maschile.

Indirizzamento I pregiudizi dell'intelligenza artificiale richiede un approccio olistico, sostiene Flick.

Dalla raccolta dei dati alla fase di progettazione, il processo richiede una maggiore diversità. "Se i dati che arrivano non sono abbastanza buoni, non dovrebbero nemmeno arrivare alla fase di progettazione", insiste.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni