Oversight Board är ett oberoende expertorgan som inrättades av Meta 2020 för att granska företagets mest utmanande innehållsmodereringsbeslut på Facebook, Instagram och Threads.
Den meddelade på tisdagen att den kommer att granska Metas hantering av två fall som involverar AI-genererade sexuellt explicita bilder som visar kvinnliga offentliga personer.
Styrelsen har 20 medlemmar över hela världen, däribland jurister, människorättsförsvarare, journalister och akademiker.
Det fungerar oberoende av Meta, med egen personal och budget, och kan fatta bindande beslut om innehåll som Meta måste genomföra såvida det inte bryter mot lagen.
Styrelsen kan också utfärda icke-bindande policyrekommendationer till Meta.
I en Blogginlägg"Idag tillkännager tillsynsnämnden två nya fall för övervägande. Som en del av detta inbjuder vi personer och organisationer att lämna offentliga kommentarer."
Det första fallet gäller en explicit AI-genererad bild som publicerades på Instagram och som var utformad för att avbilda en offentlig person från Indien.
Enligt nämnden "har bilden skapats med hjälp av artificiell intelligens (AI) för att likna en offentlig person från Indien. Kontot som publicerade detta innehåll delar endast AI-genererade bilder av indiska kvinnor. Majoriteten av de användare som reagerade har konton i Indien, där deepfakes blir ett allt större problem."
Det andra fallet gäller en bild som publicerades i en Facebook-grupp om AI-skapelser och som visade en AI-genererad naken kvinna som liknade en amerikansk offentlig person som tafsades på av en man.
Tillsynsnämnden konstaterade: "Den innehåller en AI-genererad bild av en naken kvinna med en man som tafsar på hennes bröst. Bilden har skapats med AI för att likna en amerikansk offentlig person, som också namnges i bildtexten. Majoriteten av de användare som reagerade har konton i USA."
Inledningsvis tillät Meta att bilden av den indiska offentliga personen skulle förbli på Instagram men tog senare bort den för att bryta mot sin mobbnings- och trakasseringsgemenskapsstandard efter att tillsynsnämnden valt ärendet för granskning.
Meta tog bort bilden av den amerikanska offentliga personen för att ha brutit mot samma policy, särskilt klausulen som förbjuder "nedsättande sexualiserad photoshop eller teckningar".
Tillsynsnämnden uppgav att den "valde dessa fall för att bedöma om Metas policyer och dess verkställighetspraxis är effektiva när det gäller att hantera explicita AI-genererade bilder. Detta fall är i linje med styrelsens strategiska prioritering för kön."
Som en del av sin granskningsprocess söker tillsynsnämnden offentliga kommentarer om olika aspekter av ärendena, inklusive "arten och allvaret av de skador som orsakas av deep fake pornografi", "kontextuell information om användningen och utbredningen av deep fake pornografi globalt" och "strategier för hur Meta kan hantera deep fake pornografi på sina plattformar".
Den offentliga kommentarperioden kommer att förbli öppen i 14 dagar och avslutas den 30 april. Tillsynsnämnden kommer då att överlägga om ärendena och utfärda sina beslut, som kommer att vara bindande för Meta. Eventuella policyrekommendationer som styrelsen gör kommer att vara icke-bindande, men Meta måste svara på dem inom 60 dagar.
Tillsynsnämndens tillkännagivande kommer mitt under brinnande växande oro om spridningen av djup fejkpornografi utan samtycke som riktar sig till kvinnor, särskilt kändisar.
Taylor Swift var den mest produktiva måldär AI-genererade bilder på sångerskan utlöste en digital jakt på gärningsmannen.
Som svar på det ökande hotet från djupt falsk pornografi införde lagstiftarna lagen DEFIANCE-akt i januari, som skulle göra det möjligt för offer för djupförfalskningar utan samtycke att stämma om de kan bevisa att innehållet skapades utan deras samtycke.
Kongressledamoten Alexandria Ocasio-Cortez, som sponsrade lagförslaget och själv utsattes för deep fake-pornografi, betonade behovet av att kongressen agerar för att stödja offren när deep fake blir mer tillgängligt.