Ambiguïté juridique autour des faux nus envoyés à des adolescents espagnols

20 septembre 2023

Faux IA profonde

À Almendralejo, une petite ville du sud de l'Espagne, plus de 20 adolescentes ont récemment découvert qu'elles avaient reçu sur leur téléphone portable des images d'elles-mêmes nues générées artificiellement. 

Ces faux nus profonds d'un réalisme troublant ont été manipulés à partir de photographies initialement publiées sur les comptes Instagram des jeunes filles. 

Aujourd'hui, les parents et les juristes se posent la question : La création et la diffusion de ces images constituent-elles un délit au regard des lois existantes ?

Les images explicites ont été générées à l'aide de ClothOff, une application d'intelligence artificielle, puis diffusées dans divers groupes WhatsApp. 

Les sujets des photos étaient entièrement vêtus, mais le logiciel d'IA a modifié les images de manière convaincante pour que la nudité paraisse réelle. 

Les parents et les autorités judiciaires s'inquiètent de plus en plus de savoir si ces photos manipulées peuvent être considérées comme de la pornographie enfantine.

Miriam Al Adib, la mère de l'une des filles concernées, a exprimé son désarroi sur son compte Instagram, déclarant : "Les montages sont super réalistes, c'est très dérangeant et un véritable scandale."

Elle poursuit : "Ma fille m'a dit avec beaucoup de dégoût : 'Maman, regarde ce qu'ils m'ont fait'". 

M. Al Adib s'est également inquiété du fait que les images modifiées pourraient même se retrouver sur des sites web pour adultes.

Fátima Gómez, un autre parent inquiet, a déclaré à la chaîne de télévision espagnole Extremadura TV que sa fille avait été victime d'un chantage sur les réseaux sociaux. Un garçon a demandé de l'argent à sa fille et, lorsqu'elle a refusé, il lui a envoyé un faux nu très profond.

Les Le FBI a mis en garde de "sextorsion" générée par l'IA en juin de cette année, et plusieurs femmes en ont déjà été victimes.

La police nationale espagnole a enquêté sur cette affaire et a identifié plusieurs mineurs qui auraient participé à la création et à la diffusion de ces images. 

La situation a également été transmise au bureau du procureur des mineurs. Le maire d'Almendralejo a averti que ce qui avait commencé comme une "plaisanterie" pourrait avoir de graves conséquences juridiques.

ClothOff, l'application d'IA en question, a un slogan déconcertant : "Déshabillez n'importe qui, déshabillez les filles gratuitement". Elle facturerait 10 euros pour la génération de 25 images de nudité.

La plus jeune fille impliquée n'avait que 11 ans.

Les lois existantes offrent une couverture insuffisante 

Manuel Cancio, professeur de droit pénal à l'Université autonome de Madrid, a déclaré à Euronews que les lois existantes ne traitent peut-être pas le problème de manière adéquate. 

"Puisqu'elle est générée par deepfake, la vie privée de la personne en question n'est pas affectée. L'effet qu'elle produit (sur la victime) peut être très similaire à celui d'une vraie photo de nu, mais la loi a une longueur d'avance", a-t-il expliqué.

Essentiellement, le fait que l'image soit fausse ou "fictive" complique les aspects juridiques.

Les experts juridiques sont divisés sur la manière de classer ce crime. Certains estiment qu'il pourrait relever des lois sur la pornographie enfantine, ce qui entraînerait des sanctions plus sévères, tandis que d'autres suggèrent que le crime pourrait être considéré comme une atteinte à l'intégrité morale. 

Les interprétations juridiques de l'affaire seraient différentes dans le monde entier, et il y aurait probablement un débat similaire si cela s'était produit dans d'autres pays.

Les enfants sont victimes des effets néfastes de l'IA. Le Forum économique mondial (WEF) a récemment attiré l'attention sur le fait qu'un nombre croissant d'enfants sont victimes de l'IA. l'absence flagrante de politique visant à protéger les enfants des risques liés à l'IA.

Les législateurs américains ont également questions soulevées des interactions entre l'IA et les enfants, et des journalistes britanniques ont découvert que des réseaux de pédophiles avaient été mis en place dans le cadre de l'IA. générer des contenus illicites dérangeants en utilisant des modèles d'intelligence artificielle. 

Les législateurs sont mis à l'épreuve par de tels cas - Cela montre une fois de plus que le processus législatif traditionnel est tout simplement trop lourd pour s'adapter aux risques liés à l'IA qui auraient à peine pu être imaginés il y a quelques années.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation