La police australienne a ouvert une enquête sur la diffusion d'images pornographiques d'une cinquantaine d'écolières générées par l'IA, dont l'auteur serait un adolescent.
Dans une interview accordée à ABC mercredi, Emily, la mère d'une jeune fille de 16 ans scolarisée à Bacchus Marsh Grammar, a révélé que sa fille avait été physiquement malade après avoir vu les images "mutilées" en ligne.
"J'ai récupéré ma fille lors d'une soirée pyjama et elle était extrêmement angoissée, vomissant parce que les images étaient incroyablement graphiques", a-t-elle expliqué à ABC Radio Melbourne.
L'école a publié un communiqué dans lequel elle déclare s'engager à assurer le bien-être des élèves, précisant qu'elle propose des services de conseil et qu'elle coopère avec la police.
"Le bien-être de nos élèves et de leurs familles à Bacchus Marsh Grammar est une priorité absolue et fait l'objet d'une attention particulière. école déclarée.
Cette décision intervient alors que le gouvernement australien fait pression en faveur de lois plus strictes pour les "deep fakes" explicites non consensuels, en prévoyant des peines de prison pouvant aller jusqu'à sept ans pour la création et le partage de CSAM, générés par l'intelligence artificielle ou autres.
Augmentation du nombre de deep fakes explicites
Selon les experts, les prédateurs en ligne qui fréquentent le dark web exploitent de plus en plus les outils d'IA - en particulier les générateurs texte-image comme Stability AI - pour créer de nouveaux CSAM.
Il est inquiétant de constater que ces créateurs de CSAM font parfois une fixation sur d'anciens enfants victimes d'abus dont les images circulent en ligne. Des groupes de protection de l'enfance ont rapporté avoir trouvé de nombreuses discussions sur les forums de discussion concernant l'utilisation de l'IA pour créer davantage de contenu mettant en scène des "stars" mineures spécifiques, populaires dans ces communautés abusives.
L'IA permet aux gens de créer de nouvelles images explicites pour revictimiser et retraumatiser les survivants.
"Mon corps ne sera plus jamais le mien, et c'est une chose avec laquelle de nombreux survivants doivent composer", a récemment déclaré Leah Juliett, militante et survivante du CSAM. a déclaré au Guardian.
Octobre 2023 rapport de la fondation Internet Watch, basée au Royaume-Uni a mis au jour l'ampleur du CSAM généré par l'IA. Le rapport a trouvé plus de 20 000 images de ce type postées sur un seul forum du dark web pendant un mois.
Les images sont souvent indéchiffrables par rapport à des photos authentiques et présentent des contenus profondément dérangeants, tels que des simulations de viol de bébés et de jeunes enfants.
L'année dernière, un Rapport de l'Université de Stanford a révélé que des centaines d'images réelles de CSAM étaient incluses dans la base de données LAION-5B utilisée pour entraîner les outils d'intelligence artificielle les plus répandus. Lorsque la base de données a été rendue publique, les experts affirment que la création de CSAM générés par l'IA a explosé.
Les récentes arrestations démontrent que le problème n'est pas théorique et que les forces de police du monde entier prennent des mesures. Par exemple, en avril, un Un homme de Floride a été inculpé pour avoir prétendument utilisé l'IA pour générer des images explicites d'une voisine enfantine.
L'année dernière, un homme de Caroline du Nord - un pédopsychiatre de surcroît - a été condamné à une peine d'emprisonnement de trois ans. a été condamné à 40 ans de prison pour avoir créé de la pornographie infantile générée par l'IA à partir de ses patients.
Il y a quelques semaines, le ministère américain de la justice a annoncé la mise en place d'un système de contrôle de l'accès à l'information. arrestation de Steven Anderegg, 42 ans dans le Wisconsin pour avoir prétendument créé plus de 13 000 images d'enfants abusives générées par l'IA.
Les lois actuelles ne sont pas suffisantes, selon les législateurs et les défenseurs des droits de l'homme
Bien que la plupart des pays disposent déjà de lois qui criminalisent les MCS générés par ordinateur, les législateurs souhaitent renforcer les réglementations.
Par exemple, aux États-Unis, un projet de loi bipartisan a été introduite pour permettre aux victimes de poursuivre les créateurs de deep fakes explicites et non consensuels.
Toutefois, il reste des zones d'ombre où il est difficile de déterminer avec précision quelles lois ces activités enfreignent.
Par exemple, en Espagne, un jeune étudiant a été trouvé en train de diffuser des images explicites d'enfants de moins de 18 ans. les membres de la classe générés par l'IA. Certains ont fait valoir que cela relèverait des lois sur la pédophilie, ce qui entraînerait des poursuites plus sévères, tandis que d'autres ont déclaré que la loi actuelle ne permettait pas de répondre à ce critère.
Un incident similaire s'est produit dans un école dans le New JerseyLa Commission européenne a publié un rapport sur l'utilisation de l'intelligence artificielle, qui montre que les enfants peuvent utiliser ces outils naïvement et s'exposer ainsi à des risques extrêmes.
Les entreprises technologiques à l'origine des générateurs d'images par IA interdisent l'utilisation de leurs outils pour créer des contenus illégaux. Cependant, de nombreux modèles d'IA puissants sont libres et peuvent être exécutés en privé hors ligne, de sorte que la boîte ne peut pas être complètement fermée.
En outre, une grande partie de l'activité criminelle s'est déplacée vers des plateformes de messagerie cryptées, ce qui rend la détection encore plus difficile.
Si l'IA a ouvert la boîte de Pandore, c'est certainement l'un des périls qu'elle recèle.