OpenAI kondigt intenties aan om GPT-4 in te zetten voor content moderatie

17 augustus 2023

GPT-4

OpenAI heeft aangekondigd dat GPT-4 de taak van content moderatie kan moderniseren, waardoor er minder menselijk toezicht nodig is. 

Het internet wordt voortdurend gemodereerd op schadelijke, haatdragende of anderszins onacceptabele inhoud en hoewel algoritmes achter de schermen al werken om het proces te automatiseren, blijft menselijk inzicht van onschatbare waarde. 

Inhoudsbeheerders zijn belast met deze verantwoordelijkheid en moeten soms traumatische inhoud met afbeeldingen van zelfmoord, marteling en moord sorteren.

OpenAI ziet een toekomst waarin AI online content moderatie stroomlijnt volgens platform-specifieke richtlijnen, waardoor de druk op menselijke moderatoren aanzienlijk afneemt. 

In een blogpoststellen ze: "We geloven dat dit een positievere visie biedt op de toekomst van digitale platforms, waar AI kan helpen online verkeer te modereren volgens platformspecifiek beleid en de mentale last van menselijke moderatoren kan verlichten, waarvan er wereldwijd waarschijnlijk honderdduizenden zijn."

Dit is een saillant onderwerp, aangezien OpenAI onlangs verwikkeld in een schandaal waarbij inhoudsmoderatoren betrokken zijn die werken voor datadienstenbedrijf Sama in Nairobi, Kenia.

Werknemers moesten grafische tekstinhoud sorteren om de 'afstemming' van ChatGPT te verbeteren - wat het aanpassen van AI-outputs aan 'wenselijke' ethische, morele en politieke grenzen beschrijft - een zeer subjectieve praktijk. 

Het contentmoderatieteam maakte melding van traumatische en oneerlijke werkomstandigheden en diende een petitie in bij de Keniaanse overheid, die uiteindelijk uitmondde in een rechtszaak.

OpenAI zegt dat GPT-4 zou kunnen helpen bij het maken van gepersonaliseerde beleidsregels voor inhoud en deze op grote schaal zou kunnen toepassen op inhoud. 

Bij het vergelijken van GPT-4 met handmatige moderatie benadrukte OpenAI de vaardigheid van de AI in het bieden van consistente labeling en snelle feedback: "Mensen kunnen beleidsregels verschillend interpreteren of sommige moderatoren hebben meer tijd nodig om nieuwe beleidswijzigingen te verwerken, wat leidt tot inconsistente labels. In vergelijking hiermee zijn LLM's gevoelig voor granulaire verschillen in formulering en kunnen ze zich direct aanpassen aan beleidsupdates om gebruikers een consistente contentervaring te bieden."

Maar ondanks het potentieel van GPT-4 om de last van content moderators te verlichten, gaf OpenAI toe dat het volledig automatiseren van het proces waarschijnlijk niet mogelijk is, door te stellen: "Zoals bij elke AI-toepassing zullen de resultaten en output zorgvuldig moeten worden gecontroleerd, gevalideerd en verfijnd door mensen in de lus te houden."

Hoe OpenAI GPT-4 wil gebruiken voor inhoudsmoderatie

Digitale platforms staan voor een voortdurende uitdaging: het snel en accuraat modereren van enorme hoeveelheden content. 

In het verleden werd het zware tilwerk gedaan door menselijke moderatoren met mogelijk rampzalige psychologische gevolgen, vaak gekoppeld aan een laag loon. 

OpenAI wil GPT-4 gebruiken om automatisch beleid te implementeren om schadelijke inhoud te beperken. Het bedrijf benadrukte de volgende voordelen: 

  • Snelheid: Met GPT-4 worden wijzigingen in het inhoudsbeleid, die vroeger maanden duurden, nu in enkele uren doorgevoerd.
  • Consistentie: De menselijke interpretatie van inhoudsbeleid kan variëren, wat leidt tot inconsistenties. GPT-4 biedt een gestandaardiseerde aanpak door zich aan te passen aan beleidsaanpassingen.
  • Mentaal welzijn: Het automatiseren van een groot deel van het content moderatieproces met GPT-4 kan de emotionele druk op menselijke moderators verminderen, die vaak te maken krijgen met schadelijke of aanstootgevende content.

OpenAI gaf echter toe dat content moderatie snel gaat omdat mensen voortdurend nieuwe manieren bedenken om filters te omzeilen, bijvoorbeeld door nieuwe slangtermen te gebruiken om detectie te omzeilen. 

Bovendien blijft vooringenomenheid een punt van zorg, omdat de beslissingen van GPT-4 de vooringenomenheid van de trainingsgegevens kunnen weerspiegelen. Dit kan leiden tot blinde vlekken of een onvoorspelbare behandeling van bepaalde inhoud.

Het is vermeldenswaard dat de Keniaanse inhoudsmoderatoren die taak uitvoerden om te helpen ChatGPT op één lijn te brengen.

Dus zelfs het gebruik van AI om inhoud te modereren vereist uiteindelijk een zekere mate van menselijke blootstelling.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden