L'Oversight Board è un organo indipendente di esperti istituito da Meta nel 2020 per rivedere le decisioni di moderazione dei contenuti più impegnativi dell'azienda su Facebook, Instagram e Threads.
Martedì ha annunciato che rivedrà la gestione da parte di Meta di due casi riguardanti immagini sessualmente esplicite generate dall'intelligenza artificiale che ritraggono personaggi pubblici femminili.
Il consiglio di amministrazione conta 20 membri in tutto il mondo, tra cui avvocati, difensori dei diritti umani, giornalisti e accademici.
Opera in modo indipendente da Meta, con personale e budget propri, e può prendere decisioni vincolanti sui contenuti che Meta deve implementare, a meno che ciò non violi la legge.
Il Consiglio può anche formulare raccomandazioni non vincolanti per Meta.
In un post sul blogLa Commissione di vigilanza ha dichiarato: "Oggi la Commissione annuncia due nuovi casi da esaminare. A questo proposito, invitiamo persone e organizzazioni a presentare commenti pubblici".
Il primo caso riguarda un'immagine esplicita generata dall'intelligenza artificiale e postata su Instagram che ritrae un personaggio pubblico indiano.
Secondo il Consiglio, "l'immagine è stata creata utilizzando l'intelligenza artificiale (AI) per assomigliare a un personaggio pubblico indiano. L'account che ha pubblicato questo contenuto condivide solo immagini generate dall'AI di donne indiane. La maggior parte degli utenti che hanno reagito hanno account in India, dove i deepfakes stanno diventando sempre più un problema".
Il secondo caso riguarda un'immagine postata in un gruppo Facebook dedicato alle creazioni dell'intelligenza artificiale, in cui una donna nuda generata dall'intelligenza artificiale, somigliante a un personaggio pubblico americano, viene palpeggiata da un uomo.
L'Oversight Board ha osservato: "Presenta un'immagine generata dall'intelligenza artificiale di una donna nuda con un uomo che le palpa il seno. L'immagine è stata creata dall'intelligenza artificiale per assomigliare a un personaggio pubblico americano, che viene anche nominato nella didascalia. La maggior parte degli utenti che hanno reagito ha un account negli Stati Uniti".
Inizialmente Meta ha permesso che l'immagine del personaggio pubblico indiano rimanesse su Instagram, ma in seguito l'ha rimossa per violazione dei suoi standard comunitari di bullismo e molestie dopo che l'Oversight Board ha selezionato il caso per una revisione.
Meta ha rimosso l'immagine del personaggio pubblico americano per aver violato la stessa politica, in particolare la clausola che vieta "photoshop o disegni sessuali dispregiativi".
L'Oversight Board ha dichiarato di aver "selezionato questi casi per valutare se le politiche di Meta e le sue pratiche di applicazione sono efficaci nell'affrontare le immagini esplicite generate dall'intelligenza artificiale". Questo caso è in linea con la priorità strategica di genere del Consiglio".
Nell'ambito del processo di revisione, l'Oversight Board sta cercando di ottenere commenti pubblici su vari aspetti dei casi, tra cui "la natura e la gravità dei danni posti dalla deep fake pornography", "informazioni contestuali sull'uso e la diffusione della deep fake pornography a livello globale" e "strategie su come Meta può affrontare la deep fake pornography sulle sue piattaforme".
Il periodo di commento pubblico rimarrà aperto per 14 giorni e si concluderà il 30 aprile. L'Oversight Board delibererà quindi sui casi ed emetterà le proprie decisioni, che saranno vincolanti per Meta. Le eventuali raccomandazioni politiche formulate dal Comitato non saranno vincolanti, ma Meta dovrà rispondere entro 60 giorni.
L'annuncio dell'Oversight Board giunge nel pieno del preoccupazioni crescenti sulla proliferazione della falsa pornografia non consensuale che prende di mira le donne, in particolare le celebrità.
Taylor Swift è stata la obiettivo più prolificocon immagini esplicite della cantante generate dall'intelligenza artificiale che hanno scatenato una caccia all'uomo digitale per trovare il colpevole.
In risposta alla crescente minaccia di una pornografia falsa e profonda, i legislatori hanno introdotto la legge Legge DEFIANCE a gennaioche consentirebbe alle vittime di falsi profondi non consensuali di fare causa se possono dimostrare che il contenuto è stato realizzato senza il loro consenso.
La deputata Alexandria Ocasio-Cortez, che ha sponsorizzato la proposta di legge e che è stata lei stessa bersaglio della pornografia deep fake, ha sottolineato la necessità che il Congresso agisca per sostenere le vittime, dato che i deep fake diventano sempre più accessibili.