La Casa Bianca ha recentemente reclutato degli hacker per esaminare la tecnologia AI.
Questo faceva parte di un'ampia sfida pubblica di red-teaming organizzata durante il Def Con convegno di hacking a Las Vegas.
Il concetto di red-teaming - condurre test aggressivi per scoprire pregiudizi e imprecisioni tecnologiche - è generalmente un affare interno.
Tuttavia, l'ubiquità di IA pubbliche come ChatGPT sta facendo pressione sugli sviluppatori affinché espongano i loro strumenti a un intenso controllo, come richiesto anche dalla Casa Bianca.
Al Def Con di quest'anno, la tecnologia AI di giganti tecnologici come Google e OpenAI è stata messa sotto i riflettori mentre gli hacker cercavano di esporre i problemi di pregiudizio e discriminazione.
Alla sessione ha partecipato Arati Prabhakar, responsabile dell'Ufficio per la politica scientifica e tecnologica della Casa Bianca.
Kelsey Davis, fondatore e CEO dell'azienda tecnologica CLLCTVE, era tra le centinaia di hacker che hanno partecipato alla sfida.
La Davis ha spiegato alla NPR la sua emozione per l'evento, dicendo: "È un modo molto bello di rimboccarsi le maniche. State aiutando il processo di progettazione di qualcosa di più equo e inclusivo".
Ridurre le distorsioni dell'intelligenza artificiale
Davis si è concentrato sull'esposizione degli stereotipi demografici nelle risposte dell'IA.
Sebbene il chatbot abbia risposto in modo appropriato ad alcune domande, ha mostrato un evidente pregiudizio razziale quando gli è stato proposto di frequentare un college o un'università storicamente neri (HBCU).
"È un bene: significa che l'ho rotto", ha commentato Davis dopo che il chatbot AI ha mostrato pregiudizi stereotipati. Nel frattempo ha presentato i suoi risultati, che saranno presi in considerazione per perfezionare ulteriormente la tecnologia.
L'impegno della Casa Bianca sottolinea l'importanza cruciale del red-teaming nella lotta ai pregiudizi dell'IA.
Prabhakar ha spiegato: "Questa sfida presenta molti degli elementi di cui abbiamo bisogno. È strutturata, è indipendente, è una rendicontazione responsabile e porta al tavolo molte persone diverse con molti background diversi".
I pregiudizi dell'intelligenza artificiale sono un problema molto reale per molte persone. Ad esempio, si è scoperto che uno strumento di reclutamento di Amazon penalizzava le domande di lavoro delle donne e almeno cinque uomini di colore sono stati arrestati negli Stati Uniti a causa di un'intelligenza artificiale. falso riconoscimento facciale partite.
I ricercatori che lavorano per smascherare i pregiudizi dell'IA Spesso il problema deriva dai dati di addestramento, che spesso sono scarsamente rappresentativi delle diverse categorie demografiche che l'IA dovrebbe servire.
Gli organizzatori della Def Con si sono impegnati a fondo per garantire un gruppo eterogeneo di partecipanti alla sfida del red-teaming, collaborando con le università della comunità e con organizzazioni non profit come Black Tech Street.
Tyrance Billingsley, fondatore di Black Tech Street, ha dichiarato: "L'intelligenza artificiale è fondamentale. E noi dobbiamo essere qui".
Nei prossimi mesi, le aziende tecnologiche esamineranno le proposte di sfida e cercheranno di apportare le modifiche necessarie ai loro modelli di intelligenza artificiale per attenuare i pregiudizi.