Vita huset rekryterade nyligen hackare för att granska AI-teknik.
Detta var en del av en omfattande offentlig red-teaming-utmaning som organiserades under Def Con hackingkonferens i Las Vegas.
Begreppet red-teaming - att genomföra aggressiva tester för att upptäcka tekniska fördomar och felaktigheter - är i allmänhet en intern angelägenhet.
Att offentliga AI:er som ChatGPT finns överallt sätter dock press på utvecklarna att utsätta sina verktyg för intensiv granskning, något som Vita huset också har uppmanat till.
På Def Con i år sattes AI-teknik från teknikjättar som Google och OpenAI under lupp när hackare försökte avslöja problem med fördomar och diskriminering.
Arati Prabhakar, chef för Office of Science and Technology Policy i Vita huset, deltog i sessionen.
Kelsey Davis, grundare och VD för teknikföretaget CLLCTVE, var en av de hundratals hackare som deltog i utmaningen.
Davis förklarade sin entusiasm över evenemanget för NPR och sa: "Det här är ett riktigt coolt sätt att bara kavla upp ärmarna. Du hjälper till att konstruera något som är mer rättvist och inkluderande."
Bekämpning av fördomar om AI
Davis fokuserade på att avslöja demografiska stereotyper i AI-svaren.
Medan chatboten svarade på ett lämpligt sätt på vissa frågor, visade den en uppenbar rasistisk fördom när den fick ett scenario om att gå på ett Historically Black College eller University (HBCU).
"Det är bra - det betyder att jag hade sönder den", kommenterade Davis efter att AI-chatboten visat stereotypa fördomar. Hon har sedan dess skickat in sina resultat, som kommer att beaktas för att förfina tekniken ytterligare.
Vita husets engagemang understryker den avgörande betydelsen av red-teaming i kampen mot AI-bias.
Prabhakar förklarade: "Den här utmaningen har många av de delar som vi behöver se. Den är strukturerad, den är oberoende, den är ansvarsfull och den samlar många olika människor med många olika bakgrunder kring bordet."
AI-fördomar är ett mycket verkligt problem för många människor. Till exempel visade det sig att ett rekryteringsverktyg från Amazon missgynnade jobbansökningar från kvinnor, och minst fem svarta män arresterades i USA på grund av falsk ansiktsigenkänning tändstickor.
Forskare arbetar för att avslöja AI-fördomar ofta att problemet härrör från träningsdata, som ofta är dåligt representativa för de olika demografiska grupper som AI är tänkt att tjäna.
Def Con-arrangörerna gjorde samordnade ansträngningar för att säkerställa en mångfaldig grupp deltagare i red-teaming-utmaningen och samarbetade med community colleges och ideella organisationer som Black Tech Street.
Tyrance Billingsley, grundare av Black Tech Street, sa: "AI är avgörande. Och vi måste vara här."
Under de kommande månaderna kommer teknikföretagen att granska utmaningsförslagen och försöka göra nödvändiga justeringar av sina AI-modeller för att mildra fördomar.