OpenAI kunngjør intensjoner om å ta i bruk GPT-4 for innholdsmoderering

17. august 2023

GPT-4

OpenAI har kunngjort at GPT-4 har potensial til å modernisere oppgaven med innholdsmoderering og redusere behovet for menneskelig tilsyn. 

Internett modereres kontinuerlig for skadelig, hatefullt eller på annen måte uakseptabelt innhold, og selv om algoritmer allerede jobber bak kulissene for å automatisere prosessen, er menneskelig innsikt fortsatt uvurderlig. 

Innholdsmoderatorene har dette ansvaret og må sortere blant tidvis traumatisk innhold som skildrer selvmord, tortur og drap.

OpenAI ser for seg en fremtid der kunstig intelligens effektiviserer moderering av innhold på nettet i henhold til plattformspesifikke retningslinjer, noe som reduserer presset på menneskelige moderatorer betraktelig. 

I en blogginnlegg"Vi tror dette gir et mer positivt syn på fremtiden for digitale plattformer, der kunstig intelligens kan bidra til å moderere trafikken på nettet i henhold til plattformspesifikke retningslinjer og avlaste den mentale byrden for menneskelige moderatorer, som det sannsynligvis finnes hundretusener av på verdensbasis."

Dette er et aktuelt tema, ettersom OpenAI nylig ble innblandet i en skandale som involverer innholdsmoderatorer som jobber for datatjenesteselskapet Sama i Nairobi, Kenya.

Medarbeiderne måtte sortere gjennom grafisk tekstinnhold for å forbedre ChatGPTs "alignment" - som beskriver hvordan man tilpasser AI-resultatene til "ønskelige" etiske, moralske og politiske grenser - en svært subjektiv praksis. 

Innholdsmodereringsteamet rapporterte om traumatiske og urettferdige arbeidsforhold og sendte en underskriftskampanje til kenyanske myndigheter, noe som kulminerte i et søksmål.

OpenAI sier at GPT-4 kan bidra til å utforme persontilpassede retningslinjer for innhold og anvende dem på innhold i stor skala. 

OpenAI kontrasterer GPT-4 med manuell moderering, og fremhever AI-ens evne til å tilby konsekvent merking og raske tilbakemeldinger: "Folk kan tolke retningslinjene ulikt, eller noen moderatorer kan bruke lengre tid på å fordøye nye endringer i retningslinjene, noe som fører til inkonsekvente merkelapper. Til sammenligning er LLM-er følsomme for detaljerte forskjeller i ordlyden og kan umiddelbart tilpasse seg policyoppdateringer for å gi brukerne en konsistent innholdsopplevelse."

Til tross for at GPT-4 har potensial til å lette byrden for innholdsmoderatorer, innrømmet OpenAI at det sannsynligvis ikke er mulig å automatisere prosessen fullt ut: "Som med alle AI-applikasjoner må resultater og output overvåkes nøye, valideres og foredles ved å holde mennesker i loopen."

Hvordan OpenAI har tenkt å utnytte GPT-4 til innholdsmoderering

Digitale plattformer står overfor en kontinuerlig utfordring: å moderere store mengder innhold raskt og nøyaktig. 

Historisk sett ble de tunge løftene utført av menneskelige moderatorer, med potensielt katastrofale psykologiske konsekvenser, ofte kombinert med lav lønn. 

OpenAI ønsker å utnytte GPT-4 til automatisk å implementere retningslinjer for å begrense skadelig innhold. Selskapet fremhevet følgende fordeler: 

  • Hastighet: Ved hjelp av GPT-4 kan endringer i innholdspolicyer som tidligere tok måneder, nå gjøres på få timer.
  • Konsistens: Menneskelig tolkning av innholdspolicyer kan variere, noe som fører til inkonsekvenser. GPT-4 tilbyr en standardisert tilnærming ved å tilpasse seg policyjusteringer.
  • Psykisk velvære: Ved å automatisere store deler av innholdsmodereringsprosessen med GPT-4 kan man redusere den følelsesmessige belastningen på menneskelige moderatorer, som ofte støter på skadelig eller støtende innhold.

OpenAI innrømmet imidlertid at innholdsmoderering skjer raskt, ettersom mennesker stadig finner nye måter å omgå filtrene på, f.eks. ved å bruke nye slanguttrykk for å unngå å bli oppdaget. 

Dessuten er skjevheter fortsatt et problem, ettersom GPT-4s beslutninger kan gjenspeile skjevhetene i opplæringsdataene. Dette kan føre til blindflekker eller uforutsigbar behandling av noe innhold.

Det er verdt å merke seg at de kenyanske innholdsmoderatorene utførte denne oppgaven for å bidra til å tilpasse ChatGPT.

Så selv om man bruker kunstig intelligens til å moderere innhold, krever det til syvende og sist en viss grad av menneskelig eksponering.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser