{"id":3343,"date":"2023-07-28T20:34:47","date_gmt":"2023-07-28T20:34:47","guid":{"rendered":"https:\/\/dailyai.com\/?p=3343"},"modified":"2024-03-28T00:46:33","modified_gmt":"2024-03-28T00:46:33","slug":"unmasking-the-deep-seated-biases-in-ai-systems","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","title":{"rendered":"Smascherare i pregiudizi radicati nei sistemi di IA"},"content":{"rendered":"<p><b>L'era dell'IA presenta una complessa interazione tra tecnologia e atteggiamenti sociali.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">La crescente sofisticazione dei sistemi di IA rende sempre pi\u00f9 labili i confini tra esseri umani e macchine: la tecnologia dell'IA \u00e8 separata da noi? In che misura l'IA eredita i difetti e le carenze umane, oltre alle competenze e alle conoscenze?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forse si \u00e8 tentati di immaginare l'IA come una tecnologia empirica, sottolineata dall'oggettivit\u00e0 della matematica, del codice e dei calcoli.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, ci siamo resi conto che le decisioni prese dai sistemi di IA sono altamente soggettive e si basano sui dati a cui sono esposti, e gli esseri umani decidono come selezionare e assemblare questi dati.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Qui sta la sfida, perch\u00e9 i dati di addestramento dell'IA spesso incarnano i pregiudizi, i preconcetti e le discriminazioni che l'umanit\u00e0 sta combattendo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Anche forme apparentemente sottili di pregiudizio inconscio possono essere amplificate dal processo di addestramento dei modelli, rivelandosi alla fine, tra le altre cose, sotto forma di corrispondenze facciali errate nelle forze dell'ordine, di crediti rifiutati, di diagnosi errate di malattie e di meccanismi di sicurezza alterati per i veicoli a guida autonoma.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I tentativi dell'umanit\u00e0 di prevenire la discriminazione in tutta la societ\u00e0 rimangono un lavoro in corso, ma l'intelligenza artificiale sta guidando il processo decisionale critico in questo momento.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Possiamo lavorare abbastanza velocemente per sincronizzare l'IA con i valori moderni e prevenire decisioni e comportamenti distorti che cambiano la vita?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Svelare i pregiudizi nell'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Nell'ultimo decennio, i sistemi di intelligenza artificiale hanno dimostrato di rispecchiare i pregiudizi della societ\u00e0. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questi sistemi non sono intrinsecamente distorti, ma assorbono i pregiudizi dei loro creatori e dei dati su cui vengono addestrati.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I sistemi di intelligenza artificiale, come gli esseri umani, imparano per esposizione. Il cervello umano \u00e8 un indice apparentemente infinito di informazioni, una biblioteca con scaffali quasi illimitati dove immagazziniamo esperienze, conoscenze e ricordi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Neuroscientifico <\/span><a href=\"https:\/\/www.scientificamerican.com\/article\/can-your-brain-really-be-full\/\"><span style=\"font-weight: 400;\">studi<\/span><\/a><span style=\"font-weight: 400;\"> dimostrano che il cervello non ha una \"capacit\u00e0 massima\" e continua a smistare e immagazzinare informazioni anche in et\u00e0 avanzata.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sebbene sia tutt'altro che perfetto, il processo di apprendimento progressivo e iterativo del cervello ci aiuta ad adattarci a nuovi valori culturali e sociali, dalla concessione del voto alle donne all'accettazione di identit\u00e0 diverse, fino alla fine della schiavit\u00f9 e di altre forme di pregiudizio consapevole. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">W<\/span><span style=\"font-weight: 400;\">Viviamo in un'epoca in cui gli strumenti di intelligenza artificiale vengono utilizzati per prendere decisioni critiche al posto del giudizio umano.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Molti modelli di apprendimento automatico (ML) imparano dai dati di addestramento che costituiscono la base del loro processo decisionale e non sono in grado di introdurre nuove informazioni con la stessa efficienza del cervello umano. Per questo motivo, spesso non riescono a produrre le decisioni aggiornate e al passo con i tempi per le quali siamo abituati a dipendere da loro.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, i modelli di intelligenza artificiale vengono utilizzati per identificare le corrispondenze facciali per le forze dell'ordine, <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/07\/ai-in-recruitment-are-the-risks-worth-the-rewards-of-speed-and-efficiency\/\"><span style=\"font-weight: 400;\">analizzare i curriculum per le domande di lavoro<\/span><\/a><span style=\"font-weight: 400;\">e prendere decisioni critiche per la salute in ambito clinico.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mentre la societ\u00e0 continua a integrare l'IA nella nostra vita quotidiana, dobbiamo assicurarci che sia uguale e accurata per tutti. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Attualmente non \u00e8 cos\u00ec.\u00a0\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Casi di studio sui pregiudizi dell'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Esistono numerosi esempi reali di pregiudizi, pregiudizi e discriminazioni legati all'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In alcuni casi, gli impatti dei pregiudizi dell'IA cambiano la vita, mentre in altri rimangono sullo sfondo, influenzando sottilmente le decisioni.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">1. Pregiudizio del set di dati del MIT<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Un set di dati di addestramento del MIT costruito nel 2008, chiamato <\/span><a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\"><span style=\"font-weight: 400;\">Piccole immagini<\/span><\/a><span style=\"font-weight: 400;\"> conteneva circa 80.000.000 di immagini suddivise in circa 75.000 categorie.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inizialmente \u00e8 stato concepito per insegnare ai sistemi di intelligenza artificiale a riconoscere persone e oggetti all'interno delle immagini ed \u00e8 diventato un popolare set di dati di riferimento per varie applicazioni di computer vision (CV).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2020 <a href=\"https:\/\/www.theregister.com\/2020\/07\/01\/mit_dataset_removed\/\">analisi di The Register<\/a> ha riscontrato che molti <\/span><span style=\"font-weight: 400;\">Tiny Images conteneva etichette oscene, razziste e sessiste.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Antonio Torralba del MIT ha dichiarato che il laboratorio non era a conoscenza di queste etichette offensive e ha detto a The Register: \"\u00c8 chiaro che avremmo dovuto controllarle manualmente\". Il MIT ha poi rilasciato una dichiarazione in cui afferma di aver rimosso il set di dati dal servizio.<\/span><\/p>\n<figure id=\"attachment_3344\" aria-describedby=\"caption-attachment-3344\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3344 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png\" alt=\"Dichiarazione PNG minuscola\" width=\"1024\" height=\"281\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-300x82.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-768x211.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1536x421.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-2048x561.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-370x101.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-800x219.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-740x203.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-20x5.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1600x439.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-175x48.png 175w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3344\" class=\"wp-caption-text\">Dichiarazione del MIT su Tiny Images. Fonte: <a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\">Piccole immagini<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Questa non \u00e8 l'unica volta che un ex set di dati di riferimento \u00e8 stato trovato pieno di problemi. Il Labeled Faces in the Wild (LFW), un set di dati di volti di celebrit\u00e0 ampiamente utilizzato nelle attivit\u00e0 di riconoscimento facciale, \u00e8 composto da 77,5% di maschi e 83,5% di persone con la pelle bianca.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Molti di questi dataset veterani sono entrati a far parte dei moderni modelli di IA, ma provengono da un'epoca di sviluppo dell'IA in cui l'attenzione era rivolta alla costruzione di sistemi che <\/span><i><span style=\"font-weight: 400;\">solo lavoro <\/span><\/i><span style=\"font-weight: 400;\">piuttosto che quelli appropriati per l'impiego in scenari reali.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Una volta che un sistema di IA \u00e8 stato addestrato su un tale set di dati, non ha necessariamente lo stesso privilegio del cervello umano nel ricalibrarsi ai valori contemporanei. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Anche se i modelli possono essere aggiornati in modo iterativo, si tratta di un processo lento e imperfetto che non riesce a tenere il ritmo dello sviluppo umano.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">2: Riconoscimento delle immagini: pregiudizio nei confronti degli individui con la pelle pi\u00f9 scura<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Nel 2019, il <\/span><a href=\"https:\/\/www.reuters.com\/article\/usa-crime-face\/u-s-government-study-finds-racial-bias-in-facial-recognition-tools-idINL1N28T29H\"><span style=\"font-weight: 400;\">Il governo degli Stati Uniti ha trovato<\/span><\/a><span style=\"font-weight: 400;\"> che i sistemi di riconoscimento facciale pi\u00f9 performanti identificano erroneamente le persone di colore da 5 a 10 volte in pi\u00f9 rispetto ai bianchi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Non si tratta di una semplice anomalia statistica: ha implicazioni terribili nel mondo reale, che vanno da Google Photos che identifica le persone di colore come gorilla alle auto a guida autonoma che non riconoscono gli individui con la pelle pi\u00f9 scura e li investono.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, si \u00e8 verificata un'ondata di arresti e detenzioni illegali che hanno riguardato false corrispondenze facciali, forse in modo pi\u00f9 prolifico <\/span><a href=\"https:\/\/www.engadget.com\/facial-recognition-wrongful-arrest-lawsuit-new-jersey-201517290.html\"><span style=\"font-weight: 400;\">Nijeer Parks<\/span><\/a><span style=\"font-weight: 400;\"> che \u00e8 stato ingiustamente accusato di taccheggio e di reati stradali, nonostante si trovasse a 30 miglia di distanza dall'incidente. Parks ha poi trascorso 10 giorni in carcere e ha dovuto pagare migliaia di euro di spese legali.\u00a0<\/span><\/p>\n<figure id=\"attachment_3345\" aria-describedby=\"caption-attachment-3345\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3345 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg\" alt=\"Parchi Nijeer\" width=\"1024\" height=\"576\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-300x169.jpg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-768x432.jpg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1536x864.jpg 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-370x208.jpg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-800x450.jpg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-20x11.jpg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-740x416.jpg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1600x900.jpg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-85x48.jpg 85w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3345\" class=\"wp-caption-text\">Corrispondenza errata del riconoscimento facciale di Nijeer Parks. Fonte: <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\">CNN<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">L'autorevole studio del 2018, <\/span><a href=\"http:\/\/gendershades.org\/\"><span style=\"font-weight: 400;\">Sfumature di genere<\/span><\/a><span style=\"font-weight: 400;\">ha esplorato ulteriormente i pregiudizi degli algoritmi. Lo studio ha analizzato gli algoritmi costruiti da IBM e Microsoft e ha riscontrato una scarsa accuratezza quando sono stati esposti a donne dalla pelle scura, con tassi di errore fino a 34% maggiori rispetto ai maschi dalla pelle pi\u00f9 chiara.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo schema \u00e8 risultato coerente tra 189 diversi algoritmi. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il video qui sotto, realizzato da Joy Buolamwini, ricercatore principale dello studio, fornisce un'eccellente guida su come le prestazioni di riconoscimento facciale variano a seconda del colore della pelle.\u00a0<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Sfumature di genere\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/TWWsW1w-BVo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h3><\/h3>\n<h3><span style=\"font-weight: 400;\">3: Il progetto CLIP di OpenAI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">OpenAI <\/span><a href=\"https:\/\/openai.com\/research\/clip\"><span style=\"font-weight: 400;\">Progetto CLIP<\/span><\/a><span style=\"font-weight: 400;\">, rilasciato nel 2021, progettato per abbinare le immagini al testo descrittivo, ha anche illustrato i problemi di pregiudizio in corso.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In un documento di revisione, i creatori di CLIP hanno evidenziato le loro preoccupazioni, affermando: \"CLIP ha attribuito alcune etichette che descrivono occupazioni di alto livello in modo sproporzionato agli uomini, come 'dirigente' e 'medico'. Ci\u00f2 \u00e8 simile ai pregiudizi riscontrati in Google Cloud Vision (GCV) e indica differenze storiche di genere\".<\/span><\/p>\n<figure id=\"attachment_3346\" aria-describedby=\"caption-attachment-3346\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3346 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png\" alt=\"CLIP OpenAI\" width=\"1024\" height=\"539\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-300x158.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-768x404.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-370x195.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-800x421.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-20x11.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-740x389.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-91x48.png 91w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP.png 1120w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3346\" class=\"wp-caption-text\">CLIP tendeva ad associare uomini e donne a stereotipi problematici come \"signora\" e \"bionda\". Fonte: <a href=\"https:\/\/arxiv.org\/pdf\/2108.02818.pdf\">Valutazione di CLIP<\/a>.<\/figcaption><\/figure>\n<h3><span style=\"font-weight: 400;\">4: Applicazione della legge: la controversia PredPol<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Un altro esempio di distorsione algoritmica ad alto rischio \u00e8 <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/PredPol\"><span style=\"font-weight: 400;\">PredPol<\/span><\/a><span style=\"font-weight: 400;\">, un algoritmo di polizia predittiva utilizzato da diversi dipartimenti di polizia negli Stati Uniti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">PredPol \u00e8 stato addestrato sui dati storici della criminalit\u00e0 per prevedere i futuri punti caldi della criminalit\u00e0.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, poich\u00e9 questi dati riflettono intrinsecamente pratiche di polizia distorte, l'algoritmo \u00e8 stato criticato per aver perpetuato il profiling razziale e aver preso di mira in modo sproporzionato i quartieri delle minoranze.<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">5: Bias in dermatologia AI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Nel settore sanitario, i potenziali rischi di pregiudizio dell'IA diventano ancora pi\u00f9 evidenti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Prendiamo l'esempio dei sistemi di intelligenza artificiale progettati per rilevare il cancro della pelle. Molti di questi sistemi sono addestrati su serie di dati composte per la maggior parte da individui con la pelle chiara.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2021 <\/span><a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(21)00252-1\/fulltext\"><span style=\"font-weight: 400;\">studio dell'Universit\u00e0 di Oxford<\/span><\/a><span style=\"font-weight: 400;\"> hanno analizzato 21 set di dati ad accesso libero alla ricerca di immagini di tumori della pelle. Hanno scoperto che dei 14 set di dati che hanno rivelato la loro origine geografica, 11 erano costituiti esclusivamente da immagini provenienti da Europa, Nord America e Oceania.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Solo 2.436 delle 106.950 immagini dei 21 database contenevano informazioni sul tipo di pelle. I ricercatori hanno notato che \"solo 10 immagini erano di persone registrate come aventi la pelle marrone e una era di un individuo registrato come avente la pelle marrone scuro o nera\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In termini di dati sull'etnia, solo 1.585 immagini hanno fornito questa informazione. I ricercatori hanno scoperto che \"nessuna immagine proveniva da individui di origine africana, afro-caraibica o sud-asiatica\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In combinazione con le origini geografiche dei set di dati, \u00e8 stata riscontrata una massiccia sottorappresentazione delle immagini di lesioni cutanee provenienti da popolazioni con la pelle pi\u00f9 scura\", hanno concluso.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se queste IA vengono impiegate in ambito clinico, i dati distorti creano un rischio molto concreto di diagnosi errate.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Discriminazione dei pregiudizi nei dataset di addestramento dell'IA: un prodotto dei loro creatori?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">I dati di addestramento - pi\u00f9 comunemente testo, parlato, immagini e video - forniscono al modello di apprendimento automatico (ML) supervisionato una base per l'apprendimento dei concetti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I sistemi di intelligenza artificiale non sono altro che tele vuote all'inizio. Imparano e formano associazioni sulla base dei nostri dati, dipingendo essenzialmente un'immagine del mondo cos\u00ec come viene rappresentata dai loro set di dati di addestramento.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Apprendendo dai dati di addestramento, si spera che il modello applichi i concetti appresi a nuovi dati non visti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Una volta implementati, alcuni modelli avanzati possono apprendere da nuovi dati, ma i dati di addestramento ne determinano ancora le prestazioni fondamentali.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La prima domanda a cui rispondere \u00e8: da dove provengono i dati? I dati raccolti da fonti non rappresentative, spesso omogenee e storicamente inique sono problematici.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo probabilmente si applica a una quantit\u00e0 significativa di dati online, compresi i dati di testo e di immagine estrapolati da fonti \"aperte\" o \"pubbliche\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Concepito solo decenni fa, Internet non \u00e8 una panacea per la conoscenza umana ed \u00e8 tutt'altro che equo. Met\u00e0 del mondo non usa Internet, n\u00e9 tantomeno vi contribuisce, il che significa che \u00e8 fondamentalmente non rappresentativo della societ\u00e0 e della cultura globale.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, mentre gli sviluppatori di IA lavorano costantemente per garantire che i vantaggi della tecnologia non siano limitati al mondo anglofono, la maggior parte dei dati di addestramento (testo e parlato) \u00e8 prodotta in inglese, il che significa che i contributi anglofoni guidano i risultati del modello.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I ricercatori di Anthropic hanno recentemente <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\"><span style=\"font-weight: 400;\">ha pubblicato un documento<\/span><\/a><span style=\"font-weight: 400;\"> su questo stesso argomento, concludendo: \"Se un modello linguistico rappresenta in modo sproporzionato alcune opinioni, rischia di imporre effetti potenzialmente indesiderabili, come la promozione di visioni del mondo egemoniche e l'omogeneizzazione delle prospettive e delle convinzioni delle persone\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In definitiva, sebbene i sistemi di IA operino sulla base dei principi \"oggettivi\" della matematica e della programmazione, essi esistono comunque all'interno di un contesto sociale umano profondamente soggettivo e sono plasmati da esso.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Possibili soluzioni al pregiudizio algoritmico<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Se il problema fondamentale sono i dati, la soluzione per costruire modelli equi potrebbe sembrare semplice: basta rendere le serie di dati pi\u00f9 equilibrate, giusto?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Non proprio. A <\/span><a href=\"https:\/\/arxiv.org\/abs\/1811.08489\"><span style=\"font-weight: 400;\">Studio 2019<\/span><\/a><span style=\"font-weight: 400;\"> ha dimostrato che il bilanciamento dei set di dati \u00e8 insufficiente, poich\u00e9 gli algoritmi agiscono ancora in modo sproporzionato su caratteristiche protette come il genere e la razza.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gli autori scrivono: \"Sorprendentemente, dimostriamo che anche quando i dataset sono bilanciati in modo tale che ogni etichetta co-occorra in egual misura con ogni genere, i modelli appresi amplificano l'associazione tra etichette e genere, tanto quanto se i dati non fossero stati bilanciati!\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Propongono una tecnica di de-biasing in cui tali etichette vengono rimosse completamente dal set di dati. Altre tecniche includono l'aggiunta di perturbazioni e distorsioni casuali, che riducono l'attenzione dell'algoritmo su specifiche caratteristiche protette.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, mentre la modifica dei metodi di addestramento e l'ottimizzazione dell'apprendimento automatico sono intrinseci alla produzione di risultati non distorti, i modelli avanzati sono suscettibili di cambiamenti o \"derive\", il che significa che le loro prestazioni non rimangono necessariamente costanti nel lungo periodo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Un modello potrebbe essere totalmente imparziale al momento dell'implementazione, ma diventare successivamente parziale con l'aumento dell'esposizione a nuovi dati.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Il movimento per la trasparenza algoritmica<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Nel suo libro provocatorio <\/span><i><span style=\"font-weight: 400;\">L'incomprensione artificiale: Come i computer fraintendono il mondo<\/span><\/i><span style=\"font-weight: 400;\">Meredith Broussard sostiene la necessit\u00e0 di una maggiore \"trasparenza algoritmica\" per esporre i sistemi di IA a pi\u00f9 livelli di controllo continuo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ci\u00f2 significa fornire informazioni chiare su come funziona il sistema, come \u00e8 stato addestrato e su quali dati \u00e8 stato addestrato.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mentre le iniziative di trasparenza vengono facilmente assorbite nel panorama dell'IA open-source, i modelli proprietari come GPT, Bard e Claude di Anthropic sono \"scatole nere\" e solo i loro sviluppatori sanno esattamente come funzionano, e anche questo \u00e8 oggetto di dibattito.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il problema della \"scatola nera\" nell'IA significa che gli osservatori esterni vedono solo ci\u00f2 che entra nel modello (input) e ci\u00f2 che ne esce (output). I meccanismi interni sono completamente sconosciuti se non ai loro creatori, proprio come il cerchio magico protegge i segreti dei maghi. L'intelligenza artificiale tira fuori il coniglio dal cappello.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il problema della scatola nera si \u00e8 recentemente cristallizzato intorno a segnalazioni di <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/07\/is-chatgpt-getting-worse-heres-everything-we-know-so-far\/\"><span style=\"font-weight: 400;\">Il potenziale calo di prestazioni del GPT-4<\/span><\/a><span style=\"font-weight: 400;\">. Gli utenti di GPT-4 sostengono che le capacit\u00e0 del modello sono diminuite rapidamente e, pur riconoscendo che ci\u00f2 \u00e8 vero, OpenAI non \u00e8 stata assolutamente chiara sul perch\u00e9 di questo fenomeno. Questo pone la domanda: ma lo sanno?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il dottor Sasha Luccioni, ricercatore nel campo dell'intelligenza artificiale, afferma che la mancanza di trasparenza di OpenAI \u00e8 un problema che riguarda anche altri sviluppatori di modelli di intelligenza artificiale proprietari o chiusi. \"Tutti i risultati dei modelli closed-source non sono riproducibili n\u00e9 verificabili e quindi, da un punto di vista scientifico, stiamo confrontando procioni e scoiattoli\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">&#8220;<\/span><span style=\"font-weight: 400;\">Non spetta agli scienziati monitorare continuamente gli LLM impiegati. \u00c8 compito dei creatori di modelli dare accesso ai modelli sottostanti, almeno a scopo di verifica\", ha detto.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Luccioni ha sottolineato che gli sviluppatori di modelli di IA dovrebbero fornire i risultati grezzi di benchmark standard come SuperGLUE e WikiText e di benchmark parziali come BOLD e HONEST.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La battaglia contro i pregiudizi e i preconcetti dell'IA sar\u00e0 probabilmente costante e richieder\u00e0 un'attenzione e una ricerca continue per tenere sotto controllo i risultati dei modelli mentre l'IA e la societ\u00e0 si evolvono insieme.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Anche se la regolamentazione imporr\u00e0 forme di monitoraggio e di rendicontazione, ci sono poche soluzioni definitive al problema della distorsione algoritmica, e questa non \u00e8 l'ultima volta che ne sentiremo parlare.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>L'era dell'IA presenta una complessa interazione tra tecnologia e atteggiamenti sociali.  L'aumento della sofisticazione dei sistemi di IA rende sempre pi\u00f9 labili i confini tra uomo e macchina: la tecnologia dell'IA \u00e8 separata da noi? In che misura l'IA eredita i difetti e le carenze umane, oltre alle competenze e alle conoscenze? Forse si \u00e8 tentati di immaginare l'IA come una tecnologia empirica, sottolineata dall'oggettivit\u00e0 della matematica, del codice e dei calcoli.  Tuttavia, ci siamo resi conto che le decisioni prese dai sistemi di IA sono altamente soggettive e si basano sui dati a cui sono esposti - e gli esseri umani decidono come selezionare e assemblare questi dati.\u00a0<\/p>","protected":false},"author":2,"featured_media":3347,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[148,213,118,117,93,257],"class_list":["post-3343","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-anthropic","tag-bias","tag-llms","tag-mit","tag-openai","tag-prejudice"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Unmasking the deep-seated biases in AI systems | DailyAI<\/title>\n<meta name=\"description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Unmasking the deep-seated biases in AI systems | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-28T20:34:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:46:33+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"527\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Unmasking the deep-seated biases in AI systems\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"wordCount\":2105,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"keywords\":[\"Anthropic\",\"Bias\",\"LLMS\",\"MIT\",\"OpenAI\",\"prejudice\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"name\":\"Unmasking the deep-seated biases in AI systems | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"description\":\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"width\":1000,\"height\":527,\"caption\":\"AI bias\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Unmasking the deep-seated biases in AI systems\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Smascherare i pregiudizi radicati nei sistemi di intelligenza artificiale | DailyAI","description":"L'aumento della sofisticazione dei sistemi di IA sta rendendo sempre pi\u00f9 confusa la linea di demarcazione tra esseri umani e macchine: la tecnologia di IA \u00e8 separata da noi stessi?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_locale":"it_IT","og_type":"article","og_title":"Unmasking the deep-seated biases in AI systems | DailyAI","og_description":"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?","og_url":"https:\/\/dailyai.com\/it\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_site_name":"DailyAI","article_published_time":"2023-07-28T20:34:47+00:00","article_modified_time":"2024-03-28T00:46:33+00:00","og_image":[{"width":1000,"height":527,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"10 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Unmasking the deep-seated biases in AI systems","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"wordCount":2105,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","keywords":["Anthropic","Bias","LLMS","MIT","OpenAI","prejudice"],"articleSection":["Ethics &amp; Society"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","url":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","name":"Smascherare i pregiudizi radicati nei sistemi di intelligenza artificiale | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","description":"L'aumento della sofisticazione dei sistemi di IA sta rendendo sempre pi\u00f9 confusa la linea di demarcazione tra esseri umani e macchine: la tecnologia di IA \u00e8 separata da noi stessi?","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","width":1000,"height":527,"caption":"AI bias"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Unmasking the deep-seated biases in AI systems"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/3343","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=3343"}],"version-history":[{"count":19,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/3343\/revisions"}],"predecessor-version":[{"id":3369,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/3343\/revisions\/3369"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/3347"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=3343"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=3343"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=3343"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}