Det Hvide Hus rekrutterede hackere til at afsløre AI-relateret bias

26. august 2023

def con AI

Det Hvide Hus rekrutterede for nylig hackere til at undersøge AI-teknologi.

Dette var en del af en omfattende offentlig red-teaming-udfordring, der blev organiseret under Def Con hacking-konference i Las Vegas. 

Konceptet med red-teaming - at udføre aggressive tests for at opdage teknologiske fejl og unøjagtigheder - er generelt en intern affære.

Men udbredelsen af offentlige AI'er som ChatGPT lægger pres på udviklerne for at udsætte deres værktøjer for intens granskning, hvilket Det Hvide Hus også har opfordret til. 

På Def Con i år blev AI-teknologi fra tech-giganter som Google og OpenAI sat under lup, mens hackere forsøgte at afsløre problemer med bias og diskrimination.

Arati Prabhakar, leder af kontoret for videnskabs- og teknologipolitik i Det Hvide Hus, deltog i mødet. 

Kelsey Davis, grundlægger og CEO af teknologivirksomheden CLLCTVE, var blandt de hundredvis af hackere, der deltog i udfordringen. 

Davis forklarede sin begejstring over begivenheden til NPR og sagde: "Det er en virkelig cool måde at smøge ærmerne op på. Du hjælper processen med at udvikle noget, der er mere retfærdigt og inkluderende."

Bekæmpelse af AI-bias

Davis fokuserede på at afsløre demografiske stereotyper i AI-svar.

Mens chatbotten svarede passende på visse spørgsmål, viste den en åbenlys racemæssig skævhed, da den blev bedt om et scenarie om at gå på et historisk sort college eller universitet (HBCU). 

"Det er godt - det betyder, at jeg ødelagde det," bemærkede Davis, efter at AI-chatbotten havde vist stereotype fordomme. Hun har siden indsendt sine resultater, som vil blive taget i betragtning, når teknologien skal forfines yderligere.

Det Hvide Hus' engagement understreger den kritiske betydning af red-teaming i bekæmpelsen af AI-bias. 

Prabhakar forklarede: "Denne udfordring har mange af de elementer, vi har brug for at se. Den er struktureret, den er uafhængig, den er ansvarlig rapportering, og den bringer mange forskellige mennesker med mange forskellige baggrunde til bordet."

AI-bias er et meget reelt problem for mange mennesker. For eksempel viste det sig, at et Amazon-rekrutteringsværktøj straffer jobansøgninger fra kvinder, og mindst fem sorte mænd blev arresteret i USA på grund af falsk ansigtsgenkendelse Tændstikker. 

Forskere arbejder på at afslør AI-bias finder ofte, at problemet stammer fra træningsdata, som ofte er dårligt repræsentative for de forskellige demografier, som AI skal tjene. 

Def Con-arrangørerne gjorde en stor indsats for at sikre en mangfoldig gruppe af deltagere i red-teaming-udfordringen og samarbejdede med community colleges og nonprofitorganisationer som Black Tech Street.

Tyrance Billingsley, grundlægger af Black Tech Street, sagde: "AI er kritisk. Og vi er nødt til at være her."

I de kommende måneder vil teknologivirksomheder gennemgå de indsendte udfordringer og forsøge at foretage de nødvendige justeringer af deres AI-modeller for at mindske skævhederne.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser