Tilsynsrådet er et uafhængigt ekspertorgan, der blev oprettet af Meta i 2020 for at gennemgå virksomhedens mest udfordrende beslutninger om indholdsmoderation på Facebook, Instagram og Threads.
Den meddelte tirsdag, at den vil gennemgå Metas håndtering af to sager, der involverede AI-genererede seksuelt eksplicitte billeder af kvindelige offentlige personer.
Bestyrelsen har 20 medlemmer fra hele verden, herunder advokater, menneskerettighedsforkæmpere, journalister og akademikere.
Det fungerer uafhængigt af Meta, har sit eget personale og budget og kan træffe bindende beslutninger om indhold, som Meta skal implementere, medmindre det vil være i strid med loven.
Bestyrelsen kan også udstede ikke-bindende politiske anbefalinger til Meta.
I en blogindlægTilsynet udtalte: "I dag annoncerer tilsynet to nye sager til behandling. Som en del af dette inviterer vi folk og organisationer til at indsende offentlige kommentarer."
Den første sag handler om et eksplicit AI-genereret billede, der blev lagt ud på Instagram, og som skulle forestille en offentlig person fra Indien.
Ifølge bestyrelsen: "Billedet er skabt ved hjælp af kunstig intelligens (AI) for at ligne en offentlig person fra Indien. Den konto, der har lagt dette indhold op, deler kun AI-genererede billeder af indiske kvinder. Størstedelen af de brugere, der reagerede, har konti i Indien, hvor deepfakes i stigende grad bliver et problem."
Den anden sag drejer sig om et billede, der blev lagt op i en Facebook-gruppe dedikeret til AI-kreationer, og som viste en AI-genereret nøgen kvinde, der lignede en amerikansk offentlig person, som blev befamlet af en mand.
Tilsynet bemærkede: "Det indeholder et AI-genereret billede af en nøgen kvinde med en mand, der befamler hendes bryster. Billedet er skabt med AI, så det ligner en amerikansk offentlig person, som også er nævnt i billedteksten. Størstedelen af de brugere, der reagerede, har konti i USA."
I første omgang lod Meta billedet af den indiske offentlige person forblive på Instagram, men fjernede det senere for at overtræde sin fællesskabsstandard for mobning og chikane, efter at tilsynet havde udvalgt sagen til gennemgang.
Meta fjernede billedet af den amerikanske offentlige person for at overtræde den samme politik, specifikt klausulen, der forbyder "nedsættende seksualiseret photoshop eller tegninger."
Tilsynet sagde, at det "valgte disse sager for at vurdere, om Metas politikker og dens håndhævelsespraksis er effektive til at håndtere eksplicitte AI-genererede billeder. Denne sag er i overensstemmelse med bestyrelsens strategiske prioritet for køn."
Som en del af sin gennemgangsproces søger tilsynet offentlige kommentarer til forskellige aspekter af sagerne, herunder "arten og alvoren af de skader, som deep fake-pornografi medfører", "kontekstuelle oplysninger om brugen og udbredelsen af deep fake-pornografi globalt" og "strategier for, hvordan Meta kan håndtere deep fake-pornografi på sine platforme".
Den offentlige kommentarperiode er åben i 14 dage og slutter den 30. april. Tilsynsrådet vil derefter drøfte sagerne og træffe sine beslutninger, som vil være bindende for Meta. Eventuelle politiske anbefalinger fra bestyrelsen vil være ikke-bindende, men Meta skal reagere på dem inden for 60 dage.
Tilsynets udmelding kommer midt i en tid, hvor voksende bekymringer om udbredelsen af dybt falsk pornografi uden samtykke rettet mod kvinder, især berømtheder.
Taylor Swift var den mest produktive mål, hvor AI-genererede eksplicitte billeder af sangerinden udløste en digital menneskejagt på gerningsmanden.
Som svar på den stigende trussel fra deep fake-pornografi indførte lovgiverne loven DEFIANCE Act i januar, som ville give ofre for deep fakes uden samtykke mulighed for at sagsøge, hvis de kunne bevise, at indholdet var lavet uden deres samtykke.
Kongresmedlem Alexandria Ocasio-Cortez, som sponsorerede lovforslaget og selv var et mål for deep fake-pornografi, understregede behovet for, at Kongressen handler for at støtte ofrene, når deep fakes bliver mere tilgængelige.