Le comité de surveillance de Meta évalue sa gestion des "explicit deep fakes".

18 avril 2024
  • Le comité de surveillance de Meta a critiqué la manière dont la plateforme a traité les deep fakes.
  • Deux femmes ont été impliquées dans des "deep fakes" qui n'ont pas été modérés.
  • Ils ont demandé au public de donner son avis sur l'incident.
AI Meta

Le Conseil de surveillance est un organe indépendant d'experts créé par Meta en 2020 pour examiner les décisions de modération de contenu les plus difficiles prises par l'entreprise sur Facebook, Instagram et Threads. 

Elle a annoncé mardi qu'elle allait examiner le traitement par Meta de deux affaires concernant des images sexuellement explicites générées par l'IA et représentant des personnalités publiques féminines.

Le conseil d'administration compte 20 membres dans le monde entier, dont des avocats, des défenseurs des droits de l'homme, des journalistes et des universitaires.

Il fonctionne indépendamment de Meta, avec son propre personnel et son propre budget, et peut prendre des décisions contraignantes sur le contenu que Meta doit mettre en œuvre, à moins que cela n'enfreigne la loi. 

Le conseil d'administration peut également émettre des recommandations politiques non contraignantes à l'intention du Meta.

Dans un article de blogLe Conseil de surveillance a déclaré : "Aujourd'hui, le Conseil annonce deux nouveaux cas à examiner. Dans ce cadre, nous invitons les personnes et les organisations à soumettre des commentaires publics".

Le premier cas concerne une image explicite générée par l'IA et postée sur Instagram, conçue pour représenter une personnalité publique indienne. 

Selon la Commission, "l'image a été créée à l'aide de l'intelligence artificielle (IA) pour ressembler à une personnalité publique indienne. Le compte qui a publié ce contenu ne partage que des images de femmes indiennes générées par l'IA. La majorité des utilisateurs qui ont réagi ont des comptes en Inde, où les deepfakes posent de plus en plus de problèmes."

La seconde affaire concerne une image publiée dans un groupe Facebook consacré aux créations de l'IA, montrant une femme nue générée par l'IA ressemblant à une personnalité publique américaine en train de se faire tripoter par un homme. 

Le Conseil de surveillance a noté : "Il s'agit d'une image générée par l'IA d'une femme nue avec un homme qui lui tripote les seins. L'image a été créée par l'IA pour ressembler à une personnalité publique américaine, qui est également nommée dans la légende. La majorité des utilisateurs qui ont réagi ont des comptes aux États-Unis".

Dans un premier temps, Meta a autorisé l'image de la personnalité publique indienne à rester sur Instagram, mais l'a ensuite supprimée pour violation de sa norme communautaire relative à l'intimidation et au harcèlement, après que le Conseil de surveillance a sélectionné l'affaire pour examen. 

Meta a retiré l'image de la personnalité publique américaine pour avoir enfreint la même politique, en particulier la clause interdisant les "photoshop ou dessins sexualisés désobligeants".

Le comité de surveillance a déclaré qu'il avait "sélectionné ces cas pour évaluer si les politiques de Meta et ses pratiques d'application sont efficaces pour traiter les images explicites générées par l'IA. Cette affaire s'inscrit dans le cadre de la priorité stratégique de la Commission en matière de genre".

Dans le cadre de son processus d'examen, le comité de surveillance sollicite des commentaires publics sur divers aspects des affaires, notamment "la nature et la gravité des préjudices causés par la pornographie truquée", "des informations contextuelles sur l'utilisation et la prévalence de la pornographie truquée à l'échelle mondiale" et "des stratégies sur la manière dont Meta peut lutter contre la pornographie truquée sur ses plates-formes".

La période de consultation publique restera ouverte pendant 14 jours et se terminera le 30 avril. Le comité de surveillance délibérera ensuite sur les dossiers et rendra ses décisions, qui seront contraignantes pour le Meta. Toute recommandation politique formulée par le comité ne sera pas contraignante, mais Meta devra y répondre dans un délai de 60 jours.

L'annonce du Conseil de surveillance intervient au plus fort de la crise. des préoccupations croissantes sur la prolifération de la pornographie non consensuelle de type "deep fake" ciblant les femmes, en particulier les célébrités. 

Taylor Swift était la cible la plus prolifiqueLes images explicites de la chanteuse générées par l'IA ont déclenché une chasse à l'homme numérique pour retrouver l'auteur des faits. 

En réponse à la menace croissante de la deep fake pornography, les législateurs ont introduit le Loi DEFIANCE en janvierqui permettrait aux victimes de deep fakes non consensuels d'intenter une action en justice si elles peuvent prouver que le contenu a été créé sans leur consentement. 

La députée Alexandria Ocasio-Cortez, qui a parrainé le projet de loi et a elle-même été la cible de la pornographie deep fake, a souligné la nécessité pour le Congrès d'agir pour soutenir les victimes alors que les deep fakes deviennent plus accessibles.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×
 
 

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI


 

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).



 
 

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation