Det hvite hus rekrutterte nylig hackere for å granske AI-teknologi.
Dette var en del av en omfattende offentlig red-teaming-utfordring som ble organisert under Def Con hackingkonferanse i Las Vegas.
Konseptet med red-teaming - å gjennomføre aggressive tester for å avdekke teknologiske skjevheter og unøyaktigheter - er som regel et internt anliggende.
Men utbredelsen av offentlige AI-er som ChatGPT legger press på utviklerne til å utsette verktøyene sine for intens granskning, noe Det hvite hus også har oppfordret til.
På Def Con i år ble AI-teknologi fra teknologigiganter som Google og OpenAI satt under lupen, mens hackere forsøkte å avsløre problemer med fordommer og diskriminering.
Arati Prabhakar, leder for Office of Science and Technology Policy i Det hvite hus, deltok på sesjonen.
Kelsey Davis, grunnlegger og administrerende direktør i teknologiselskapet CLLCTVE, var blant de hundrevis av hackere som deltok i utfordringen.
Davis forklarte sin begeistring over arrangementet til NPR og sa: "Dette er en veldig kul måte å brette opp ermene på. Du hjelper til med å utvikle noe som er mer rettferdig og inkluderende."
Slå ned på skjevheter i kunstig intelligens
Davis fokuserte på å avdekke demografiske stereotypier i AI-svarene.
Chatboten svarte riktig på visse spørsmål, men viste en tydelig rasistisk skjevhet da den ble bedt om å svare på et scenario om å gå på et historisk svart college eller universitet (HBCU).
"Det er bra - det betyr at jeg ødela den", bemerket Davis etter at AI-chatboten viste stereotype fordommer. Hun har siden sendt inn funnene sine, som vil bli tatt i betraktning når teknologien skal videreutvikles.
Det hvite hus' engasjement understreker den kritiske betydningen av red-teaming for å bekjempe skjevheter i kunstig intelligens.
Prabhakar forklarte: "Denne utfordringen har mange av de bitene vi trenger å se. Den er strukturert, den er uavhengig, den er ansvarlig rapportering, og den bringer mange forskjellige mennesker med ulik bakgrunn til bordet."
AI-skjevhet er et høyst reelt problem for mange mennesker. For eksempel ble det oppdaget at et rekrutteringsverktøy fra Amazon straffet jobbsøknader fra kvinner, og minst fem svarte menn ble arrestert i USA på grunn av falsk ansiktsgjenkjenning fyrstikker.
Forskere som jobber med å avsløre AI-skjevheter problemet ofte stammer fra opplæringsdata, som ofte er lite representative for de ulike demografiene AI er ment å tjene.
Def Con-arrangørene gjorde en målrettet innsats for å sikre en mangfoldig gruppe deltakere i red-teaming-utfordringen, og inngikk samarbeid med community colleges og ideelle organisasjoner som Black Tech Street.
Tyrance Billingsley, grunnlegger av Black Tech Street, sa: "AI er kritisk. Og vi må være her."
I løpet av de kommende månedene vil teknologiselskapene gå gjennom bidragene og forsøke å gjøre nødvendige justeringer i AI-modellene sine for å redusere skjevheter.