Un tribunal de la jeunesse de Badajoz, en Espagne, a condamné 15 écoliers à un an de mise à l'épreuve pour avoir créé et diffusé des images nues de leurs camarades de classe générées par l'intelligence artificielle.
Les mineurs, âgés de 13 à 15 ans, ont été reconnus coupables de 20 chefs d'accusation de création d'images d'abus d'enfants et de 20 chefs d'accusation d'atteinte à l'intégrité morale.
Dans le cadre de leur peine, les accusés doivent suivre des cours sur l'égalité des sexes et la responsabilité technologique.
Le tribunal a déclaré que les mineurs avaient utilisé des applications d'intelligence artificielle pour manipuler des photos originales de jeunes filles prises sur les médias sociaux, en superposant leurs visages sur des corps féminins nus.
L'affaire est apparu pour la première fois en septembre de l'année dernière à Almendralejo, une petite ville du sud-ouest de l'Espagne, lorsque des parents ont signalé que les images de leurs filles circulaient sur WhatsApp. Les photos manipulées représentaient les filles nues de manière réaliste, ce qui a provoqué une détresse et une anxiété immenses chez les victimes, dont certaines n'avaient que 11 ans.
"C'est un choc quand on le voit", a déclaré la mère d'une des victimes. "Si je ne connaissais pas le corps de ma fille, j'aurais pensé que cette image était réelle".
La mère d'une autre victime, Miriam Al Adib, a exprimé son indignation sur Instagram, en déclarant : "Les montages sont super réalistes, c'est très dérangeant et vraiment scandaleux."
Elle a raconté comment sa fille est venue la voir, dégoûtée, en disant : "Maman, regarde ce qu'ils m'ont fait". Mme Al Adib s'est également inquiétée du fait que les fausses images de nudité pourraient se retrouver sur des sites pour adultes.
Une autre mère, Fátima Gómez, a déclaré aux médias locaux que sa fille avait été victime d'un chantage de la part d'un camarade de classe à propos des faux nus. Un garçon a demandé de l'argent à sa fille et, lorsqu'elle a refusé, il lui a envoyé une image manipulée d'elle-même nue.
L'enquête de la police a révélé qu'une application appelée "ClothOff AI" a été utilisée pour générer les images à partir de photos de médias sociaux.
L'application a pour slogan "Déshabillez n'importe qui, déshabillez des filles gratuitement" et demanderait 10 euros pour générer 25 images de nudité.
Protection des mineurs en âge de procréer
Cette affaire historique souligne la nécessité urgente d'actualiser les lois et les politiques pour faire face à la menace croissante des contrefaçons profondes générées par l'intelligence artificielle, en particulier celles qui visent les mineurs.
Les experts affirment que la législation existante n'est pas adaptée à la poursuite de ces nouveaux délits, ce qui rend les victimes vulnérables.
"Au-delà de ce procès particulier, ces faits doivent nous faire réfléchir sur la nécessité d'éduquer les gens à l'égalité entre les hommes et les femmes", a déclaré l'association Malvaluna, qui représentait les familles touchées.
Ils ont souligné la nécessité d'une éducation sexuelle complète dans les écoles pour lutter contre les effets néfastes de la pornographie et des "deep fakes".
Alors que la technologie de l'IA progresse rapidement, le risque d'abus et d'exploitation est de plus en plus préoccupant, les femmes et les enfants étant ciblés de manière disproportionnée.
Le Forum économique mondial (WEF) et les législateurs américains ont récemment attiré l'attention sur l'absence de politiques protégeant les mineurs des risques liés à l'IA.
Les législateurs américains ont également questions soulevées L'interaction de l'IA avec les enfants est devenue un point aveugle flagrant dans les réglementations et les lignes directrices. Les développeurs d'IA imposent des limites d'âge à leurs outils, mais leur efficacité est douteuse.
La collaboration entre les décideurs politiques, les entreprises technologiques, les éducateurs et les parents est essentielle pour relever ces défis et créer un avenir numérique plus sûr pour tous, en particulier pour les enfants.