Det Hvide Hus rekrutterede for nylig hackere til at undersøge AI-teknologi.
Dette var en del af en omfattende offentlig red-teaming-udfordring, der blev organiseret under Def Con hacking-konference i Las Vegas.
Konceptet med red-teaming - at udføre aggressive tests for at opdage teknologiske fejl og unøjagtigheder - er generelt en intern affære.
Men udbredelsen af offentlige AI'er som ChatGPT lægger pres på udviklerne for at udsætte deres værktøjer for intens granskning, hvilket Det Hvide Hus også har opfordret til.
På Def Con i år blev AI-teknologi fra tech-giganter som Google og OpenAI sat under lup, mens hackere forsøgte at afsløre problemer med bias og diskrimination.
Arati Prabhakar, leder af kontoret for videnskabs- og teknologipolitik i Det Hvide Hus, deltog i mødet.
Kelsey Davis, grundlægger og CEO af teknologivirksomheden CLLCTVE, var blandt de hundredvis af hackere, der deltog i udfordringen.
Davis forklarede sin begejstring over begivenheden til NPR og sagde: "Det er en virkelig cool måde at smøge ærmerne op på. Du hjælper processen med at udvikle noget, der er mere retfærdigt og inkluderende."
Bekæmpelse af AI-bias
Davis fokuserede på at afsløre demografiske stereotyper i AI-svar.
Mens chatbotten svarede passende på visse spørgsmål, viste den en åbenlys racemæssig skævhed, da den blev bedt om et scenarie om at gå på et historisk sort college eller universitet (HBCU).
"Det er godt - det betyder, at jeg ødelagde det," bemærkede Davis, efter at AI-chatbotten havde vist stereotype fordomme. Hun har siden indsendt sine resultater, som vil blive taget i betragtning, når teknologien skal forfines yderligere.
Det Hvide Hus' engagement understreger den kritiske betydning af red-teaming i bekæmpelsen af AI-bias.
Prabhakar forklarede: "Denne udfordring har mange af de elementer, vi har brug for at se. Den er struktureret, den er uafhængig, den er ansvarlig rapportering, og den bringer mange forskellige mennesker med mange forskellige baggrunde til bordet."
AI-bias er et meget reelt problem for mange mennesker. For eksempel viste det sig, at et Amazon-rekrutteringsværktøj straffer jobansøgninger fra kvinder, og mindst fem sorte mænd blev arresteret i USA på grund af falsk ansigtsgenkendelse Tændstikker.
Forskere arbejder på at afslør AI-bias finder ofte, at problemet stammer fra træningsdata, som ofte er dårligt repræsentative for de forskellige demografier, som AI skal tjene.
Def Con-arrangørerne gjorde en stor indsats for at sikre en mangfoldig gruppe af deltagere i red-teaming-udfordringen og samarbejdede med community colleges og nonprofitorganisationer som Black Tech Street.
Tyrance Billingsley, grundlægger af Black Tech Street, sagde: "AI er kritisk. Og vi er nødt til at være her."
I de kommende måneder vil teknologivirksomheder gennemgå de indsendte udfordringer og forsøge at foretage de nødvendige justeringer af deres AI-modeller for at mindske skævhederne.