Tilsynsrådet er et uavhengig ekspertorgan som Meta opprettet i 2020 for å gjennomgå selskapets mest utfordrende beslutninger om innholdsmoderering på Facebook, Instagram og Tråder.
Tirsdag kunngjorde den at den vil gjennomgå Metas håndtering av to saker som involverer AI-genererte seksuelt eksplisitte bilder av kvinnelige offentlige personer.
Styret har 20 medlemmer over hele verden, deriblant advokater, menneskerettighetsforkjempere, journalister og akademikere.
Den opererer uavhengig av Meta, med egne ansatte og eget budsjett, og kan ta bindende beslutninger om innhold som Meta må implementere, med mindre det vil være i strid med loven.
Styret kan også gi Meta ikke-bindende policyanbefalinger.
I en blogginnleggI en uttalelse fra tilsynet heter det: "I dag kunngjør tilsynet to nye saker til behandling. Som en del av dette inviterer vi personer og organisasjoner til å sende inn offentlige kommentarer."
Den første saken gjelder et eksplisitt AI-generert bilde som ble lagt ut på Instagram, og som skulle forestille en offentlig person fra India.
Ifølge nemnda: "Bildet er skapt ved hjelp av kunstig intelligens (AI) for å ligne en offentlig person fra India. Kontoen som la ut dette innholdet, deler kun AI-genererte bilder av indiske kvinner. Flertallet av brukerne som reagerte, har kontoer i India, der deepfakes i økende grad er blitt et problem."
Den andre saken gjelder et bilde som ble lagt ut i en Facebook-gruppe dedikert til AI-kreasjoner, og som viser en AI-generert naken kvinne som ligner en amerikansk offentlig person som blir befølet av en mann.
Tilsynet bemerket: "Det inneholder et AI-generert bilde av en naken kvinne med en mann som beføler brystet hennes. Bildet er skapt med kunstig intelligens for å ligne en amerikansk offentlig person, som også er navngitt i bildeteksten. Flertallet av brukerne som reagerte, har kontoer i USA."
Meta tillot først at bildet av den indiske offentlige personen ble liggende på Instagram, men fjernet det senere på grunn av brudd på fellesskapsstandarden for mobbing og trakassering etter at tilsynet hadde valgt ut saken for gjennomgang.
Meta fjernet bildet av den amerikanske offentlige personen fordi det brøt med de samme retningslinjene, nærmere bestemt klausulen som forbyr "nedsettende seksualisert photoshop eller tegninger".
Tilsynet uttalte at det "valgte ut disse sakene for å vurdere om Metas retningslinjer og håndhevingspraksis er effektive når det gjelder å håndtere eksplisitte AI-genererte bilder. Denne saken er i tråd med styrets strategiske prioritering av kjønn."
Som en del av tilsynsprosessen ønsker tilsynet offentlige kommentarer om ulike aspekter ved sakene, blant annet "arten og alvorlighetsgraden av skadene som deep fake-pornografi utgjør", "kontekstuell informasjon om bruken og utbredelsen av deep fake-pornografi globalt" og "strategier for hvordan Meta kan håndtere deep fake-pornografi på plattformene sine".
Den offentlige kommentarperioden vil være åpen i 14 dager, og avsluttes 30. april. Deretter vil Tilsynsrådet behandle sakene og treffe sine beslutninger, som vil være bindende for Meta. Eventuelle politiske anbefalinger fra styret vil ikke være bindende, men Meta må svare på dem innen 60 dager.
Tilsynsrådets kunngjøring kommer midt i en hektisk økende bekymring om spredningen av falsk pornografi uten samtykke rettet mot kvinner, særlig kjendiser.
Taylor Swift var den mest produktive målet, med AI-genererte eksplisitte bilder av sangeren som utløste en digital menneskejakt på gjerningsmannen.
Som et svar på den økende trusselen fra dyp falsk pornografi, innførte lovgiverne DEFIANCE-loven i januar, som vil gjøre det mulig for ofre for ikke-samtykkebaserte deep fakes å saksøke hvis de kan bevise at innholdet ble laget uten deres samtykke.
Kongressmedlem Alexandria Ocasio-Cortez, som står bak lovforslaget og selv har vært utsatt for deep fake-pornografi, understreket behovet for at Kongressen handler for å støtte ofrene når deep fake blir mer tilgjengelig.