El Consejo de Supervisión de Meta evalúa su gestión de las falsificaciones profundas explícitas

18 de abril de 2024
  • La Junta de Supervisión de Meta criticó la gestión de las falsificaciones profundas por parte de la plataforma
  • Dos mujeres implicadas en falsificaciones profundas no moderadas
  • Han pedido al público que aporte opiniones sobre el incidente
AI Meta

El Consejo de Supervisión es un órgano independiente de expertos creado por Meta en 2020 para revisar las decisiones de moderación de contenidos más complicadas de la compañía en Facebook, Instagram y Threads. 

Anunció el martes que revisará la gestión de Meta de dos casos relacionados con imágenes sexualmente explícitas generadas por IA en las que aparecían figuras públicas femeninas.

La junta cuenta con 20 miembros en todo el mundo, entre abogados, defensores de los derechos humanos, periodistas y académicos.

Funciona independientemente de Meta, con su propio personal y presupuesto, y puede tomar decisiones vinculantes sobre contenidos que Meta debe aplicar a menos que hacerlo suponga una violación de la ley. 

El Consejo también puede formular recomendaciones políticas no vinculantes a Meta.

En un entrada del blogLa Junta de Supervisión declaró: "Hoy, la Junta anuncia dos nuevos casos para su consideración. Como parte de ello, estamos invitando a personas y organizaciones a presentar comentarios públicos."

El primer caso se refiere a una imagen explícita generada por la IA y publicada en Instagram, diseñada para representar a un personaje público de la India. 

Según la Junta, "la imagen ha sido creada utilizando inteligencia artificial (IA) para parecerse a una figura pública de la India. La cuenta que publicó este contenido solo comparte imágenes generadas por IA de mujeres indias. La mayoría de los usuarios que reaccionaron tienen cuentas en la India, donde los deepfakes se están convirtiendo cada vez más en un problema."

El segundo caso se refiere a una imagen publicada en un grupo de Facebook dedicado a las creaciones de IA, en la que aparecía una mujer desnuda generada por IA parecida a una figura pública estadounidense siendo manoseada por un hombre. 

El Consejo de Supervisión señaló: "Presenta una imagen generada por IA de una mujer desnuda con un hombre manoseándole el pecho. La imagen ha sido creada con IA para parecerse a una figura pública estadounidense, que también se nombra en el pie de foto. La mayoría de los usuarios que reaccionaron tienen cuentas en Estados Unidos".

En un principio, Meta permitió que la imagen de la figura pública india permaneciera en Instagram, pero más tarde la retiró por infringir su Norma Comunitaria sobre Intimidación y Acoso, después de que el Consejo de Supervisión seleccionara el caso para su revisión. 

Meta retiró la imagen del personaje público estadounidense por infringir la misma política, concretamente la cláusula que prohíbe "photoshop o dibujos sexualizados despectivos".

El Consejo de Supervisión declaró que "seleccionó estos casos para evaluar si las políticas de Meta y sus prácticas de aplicación son eficaces a la hora de abordar las imágenes explícitas generadas por IA. Este caso se alinea con la prioridad estratégica de género de la Junta".

Como parte de su proceso de revisión, el Consejo de Supervisión está solicitando comentarios públicos sobre diversos aspectos de los casos, incluyendo "la naturaleza y la gravedad de los daños que plantea la pornografía falsa profunda", "información contextual sobre el uso y la prevalencia de la pornografía falsa profunda a nivel mundial" y "estrategias para que Meta pueda hacer frente a la pornografía falsa profunda en sus plataformas".

El periodo de comentarios públicos permanecerá abierto durante 14 días y se cerrará el 30 de abril. A continuación, el Consejo de Supervisión deliberará sobre los casos y emitirá sus decisiones, que serán vinculantes para Meta. Las recomendaciones políticas del Consejo no serán vinculantes, pero Meta deberá responder a ellas en un plazo de 60 días.

El anuncio de la Junta de Supervisión se produce en pleno preocupaciones crecientes sobre la proliferación de pornografía falsa no consentida dirigida a las mujeres, en particular a las famosas. 

Taylor Swift fue la objetivo más prolíficoLas imágenes explícitas de la cantante generadas por inteligencia artificial desencadenaron una persecución digital del autor. 

En respuesta a la creciente amenaza de la pornografía falsa profunda, los legisladores introdujeron el Acto DEFIANCE en eneroque permitiría a las víctimas de falsificaciones profundas no consentidas demandar si pueden demostrar que el contenido se hizo sin su consentimiento. 

La congresista Alexandria Ocasio-Cortez, que patrocinó el proyecto de ley y fue ella misma blanco de pornografía falsa profunda, enfatizó la necesidad de que el Congreso actúe para apoyar a las víctimas a medida que las falsificaciones profundas se vuelven más accesibles.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales