L'Oversight Board di Meta valuta la sua gestione dei deep fake espliciti

18 aprile 2024
  • L'Oversight Board di Meta ha criticato la gestione dei deep fake da parte della piattaforma.
  • Due donne sono state implicate in falsi profondi che non sono stati moderati
  • Hanno chiesto al pubblico di contribuire con opinioni sull'incidente.
AI Meta

L'Oversight Board è un organo indipendente di esperti istituito da Meta nel 2020 per rivedere le decisioni di moderazione dei contenuti più impegnativi dell'azienda su Facebook, Instagram e Threads. 

Martedì ha annunciato che rivedrà la gestione da parte di Meta di due casi riguardanti immagini sessualmente esplicite generate dall'intelligenza artificiale che ritraggono personaggi pubblici femminili.

Il consiglio di amministrazione conta 20 membri in tutto il mondo, tra cui avvocati, difensori dei diritti umani, giornalisti e accademici.

Opera in modo indipendente da Meta, con personale e budget propri, e può prendere decisioni vincolanti sui contenuti che Meta deve implementare, a meno che ciò non violi la legge. 

Il Consiglio può anche formulare raccomandazioni non vincolanti per Meta.

In un post sul blogLa Commissione di vigilanza ha dichiarato: "Oggi la Commissione annuncia due nuovi casi da esaminare. A questo proposito, invitiamo persone e organizzazioni a presentare commenti pubblici".

Il primo caso riguarda un'immagine esplicita generata dall'intelligenza artificiale e postata su Instagram che ritrae un personaggio pubblico indiano. 

Secondo il Consiglio, "l'immagine è stata creata utilizzando l'intelligenza artificiale (AI) per assomigliare a un personaggio pubblico indiano. L'account che ha pubblicato questo contenuto condivide solo immagini generate dall'AI di donne indiane. La maggior parte degli utenti che hanno reagito hanno account in India, dove i deepfakes stanno diventando sempre più un problema".

Il secondo caso riguarda un'immagine postata in un gruppo Facebook dedicato alle creazioni dell'intelligenza artificiale, in cui una donna nuda generata dall'intelligenza artificiale, somigliante a un personaggio pubblico americano, viene palpeggiata da un uomo. 

L'Oversight Board ha osservato: "Presenta un'immagine generata dall'intelligenza artificiale di una donna nuda con un uomo che le palpa il seno. L'immagine è stata creata dall'intelligenza artificiale per assomigliare a un personaggio pubblico americano, che viene anche nominato nella didascalia. La maggior parte degli utenti che hanno reagito ha un account negli Stati Uniti".

Inizialmente Meta ha permesso che l'immagine del personaggio pubblico indiano rimanesse su Instagram, ma in seguito l'ha rimossa per violazione dei suoi standard comunitari di bullismo e molestie dopo che l'Oversight Board ha selezionato il caso per una revisione. 

Meta ha rimosso l'immagine del personaggio pubblico americano per aver violato la stessa politica, in particolare la clausola che vieta "photoshop o disegni sessuali dispregiativi".

L'Oversight Board ha dichiarato di aver "selezionato questi casi per valutare se le politiche di Meta e le sue pratiche di applicazione sono efficaci nell'affrontare le immagini esplicite generate dall'intelligenza artificiale". Questo caso è in linea con la priorità strategica di genere del Consiglio".

Nell'ambito del processo di revisione, l'Oversight Board sta cercando di ottenere commenti pubblici su vari aspetti dei casi, tra cui "la natura e la gravità dei danni posti dalla deep fake pornography", "informazioni contestuali sull'uso e la diffusione della deep fake pornography a livello globale" e "strategie su come Meta può affrontare la deep fake pornography sulle sue piattaforme".

Il periodo di commento pubblico rimarrà aperto per 14 giorni e si concluderà il 30 aprile. L'Oversight Board delibererà quindi sui casi ed emetterà le proprie decisioni, che saranno vincolanti per Meta. Le eventuali raccomandazioni politiche formulate dal Comitato non saranno vincolanti, ma Meta dovrà rispondere entro 60 giorni.

L'annuncio dell'Oversight Board giunge nel pieno del preoccupazioni crescenti sulla proliferazione della falsa pornografia non consensuale che prende di mira le donne, in particolare le celebrità. 

Taylor Swift è stata la obiettivo più prolificocon immagini esplicite della cantante generate dall'intelligenza artificiale che hanno scatenato una caccia all'uomo digitale per trovare il colpevole. 

In risposta alla crescente minaccia di una pornografia falsa e profonda, i legislatori hanno introdotto la legge Legge DEFIANCE a gennaioche consentirebbe alle vittime di falsi profondi non consensuali di fare causa se possono dimostrare che il contenuto è stato realizzato senza il loro consenso. 

La deputata Alexandria Ocasio-Cortez, che ha sponsorizzato la proposta di legge e che è stata lei stessa bersaglio della pornografia deep fake, ha sottolineato la necessità che il Congresso agisca per sostenere le vittime, dato che i deep fake diventano sempre più accessibili.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni