Une enquête de la BBC a révélé que des pédophiles exploitent la technologie de l'intelligence artificielle pour générer et diffuser des images réalistes d'abus sexuels sur des enfants.
Ces images illicites générées par l'IA sont généralement accessibles via des sites de partage de contenu tels que Patreon. Le Conseil des chefs de la police nationale (NPCC) a exprimé son indignation, soulignant l'incapacité "scandaleuse" de certaines plateformes à assumer une "responsabilité morale" malgré les profits substantiels qu'elles réalisent.
Le GCHQ, l'agence de renseignement et de cybersécurité du gouvernement britannique, a réagi au rapport en déclarant : "Les auteurs d'abus sexuels sur des enfants adoptent toutes les technologies et certains pensent que l'avenir du matériel d'abus sexuel sur des enfants réside dans le contenu généré par l'IA".
Les gens utilisent Stable Diffusion, une IA de génération d'images à code source ouvert, pour générer les images. Stable Diffusion permet aux utilisateurs de saisir des mots décrivant l'image souhaitée.
Il est important de noter qu'une version de Stable Diffusion est libre de droits sous la licence Apache 2.0, contrairement à Mid Journey et DALL-E, qui empêchent les utilisateurs d'utiliser les messages-guides pour générer des images graphiques ou illicites. Les créateurs sont donc libres de créer presque toutes les images qu'ils souhaitent.
La BBC a découvert des cas où la diffusion stable a été utilisée pour créer des représentations hyperréalistes d'abus sexuels sur des enfants. Les forces de police britanniques ont confirmé qu'elles étaient déjà entrées en contact avec du matériel illégal généré par l'IA.
Octavia Sheepshanks, chercheuse et journaliste indépendante, qui a enquêté sur le thème de l'immigration. l'affaireElle a fait part de ses conclusions à la BBC par l'intermédiaire de la NSPCC, une organisation caritative pour les enfants. "Depuis que les images générées par l'IA sont devenues possibles, il y a eu un énorme déferlement... Il ne s'agit pas seulement de très jeunes filles, ils [les pédophiles] parlent d'enfants en bas âge", a-t-elle noté.
Dans un autre cas, des utilisateurs profitaient d'une plateforme de pornographie virtuelle pour créer des avatars de femmes mineures. Un utilisateur aurait pris la photo d'une vraie mineure et l'aurait superposée à l'un des modèles.
La loi britannique traite les "pseudo-images" générées par ordinateur et représentant des abus sexuels sur des enfants de la même manière que les images réelles - leur possession, leur publication ou leur transfert sont donc illégaux.
Ian Critchley, responsable de la protection des enfants au sein de la NSPCC, a déclaré que même si les images "synthétiques" ne représentent pas des enfants réels, elles peuvent entraîner des dommages réels. Il a mis en garde contre une escalade potentielle des actions des délinquants "de la pensée, à la synthèse, à l'abus réel d'un enfant vivant".
Comment les pédophiles ont-ils créé et diffusé ces images ?
Selon l'enquête, le processus de distribution des images comporte trois étapes :
- Les pédophiles génèrent des images à l'aide d'un logiciel d'intelligence artificielle.
- Ces images sont mises en avant sur des plateformes telles que Pixiv, un site japonais de partage d'images.
- Des liens sont fournis sur ces plateformes, dirigeant les clients vers des images plus explicites, auxquelles ils peuvent accéder en payant sur des sites tels que Patreon.
De nombreux créateurs d'images étaient actifs sur Pixiv, principalement utilisé par les artistes de manga et d'anime.
Cependant, la plateforme est hébergée au Japon, où le partage de dessins animés sexualisés de mineurs n'est pas illégal, ce qui permet aux créateurs de promouvoir leur travail à l'aide de groupes et de hashtags.
Pixiv a interdit toutes les représentations photoréalistes de contenus sexuels impliquant des mineurs à partir du 31 mai. La société a également indiqué qu'elle avait renforcé ses systèmes de surveillance et qu'elle consacrait davantage de ressources à la lutte contre ce type de contenu.
Sheepshanks a déclaré à la BBC qu'il s'agissait d'une "distribution à l'échelle industrielle". De plus, les commentaires sur Pixiv indiquent que certains proposent du matériel abusif non généré par l'IA.
De nombreux comptes Pixiv proposent des liens vers leur "contenu non censuré" hébergé sur Patreon, une plateforme de partage de contenu basée aux États-Unis et évaluée à environ $4bn (3,1 milliards de livres sterling).
Patreon compte plus de 250 000 créateurs, dont des célébrités, des journalistes et des écrivains de renom. L'enquête a permis de découvrir que des comptes Patreon vendaient ouvertement des images obscènes d'enfants générées par l'IA, les prix variant en fonction du type de matériel.
L'IA de stabilité et la réaction de Patreon
Une fois l'exemple montré, Patreon a confirmé qu'il s'agissait d'une violation de ses politiques, et le compte a été rapidement supprimé.
Stable Diffusion, le générateur d'images d'IA utilisé pour créer ces images, a été développé dans le cadre d'une collaboration mondiale entre des universitaires et des entreprises, sous la direction de Stability AI, basée au Royaume-Uni. Comme nous l'avons mentionné, la version libre du logiciel ne comporte aucun filtre, ce qui permet de produire n'importe quelle image.
Stability AI a réagi en renforçant son interdiction d'utiliser ses logiciels à des fins illégales ou immorales, y compris les contenus pédopornographiques.
Ils ont déclaré soutenir fermement les efforts déployés par les services répressifs pour lutter contre l'utilisation illégale de leurs produits.
Ian Critchley, du NPCC, craint que l'afflux d'images générées par l'IA ou "synthétiques" n'entrave le processus d'identification des victimes d'abus. Il a déclaré : "Cela crée une demande supplémentaire, en termes de police et d'application de la loi, pour identifier où un enfant réel, où qu'il soit dans le monde, est victime d'abus, par opposition à un enfant artificiel ou synthétique".
Critchley a ajouté que la société a atteint un "moment charnière" pour déterminer si l'internet et la technologie offriront des opportunités ou s'ils deviendront une source de préjudice plus importante.
La NSPCC s'est fait l'écho de ces sentiments, exhortant les entreprises technologiques à prendre des mesures pour lutter contre la vitesse alarmante à laquelle les agresseurs ont adopté les technologies émergentes.
Anna Edmundson, responsable de la politique et des affaires publiques de l'organisation caritative, a fait valoir que les entreprises étaient conscientes de ces risques potentiels mais n'ont pas pris de mesures substantielles, soulignant qu'il n'y avait "plus d'excuses pour l'inaction".
Un porte-parole du gouvernement a déclaré en réponse : "Le projet de loi sur la sécurité en ligne exigera des entreprises qu'elles prennent des mesures proactives pour lutter contre toutes les formes d'abus sexuels d'enfants en ligne, y compris le grooming, le live-streaming, le matériel d'abus sexuel d'enfants et les images interdites d'enfants, sous peine de se voir infliger de lourdes amendes".
Le Royaume-Uni Projet de loi sur la sécurité en ligne a été rédigée avant que l'IA générative ne devienne un courant dominant, mais elle vise toujours à contrôler les cas de dommages liés à l'IA en ligne.
Les inquiétudes concernant les "deep fakes" s'intensifient
Cela attire l'attention sur le rôle de l'IA dans la tromperie et la cybercriminalité. L'essor des "deep fakes", images, vidéos ou sons ultra-réalistes générés par l'IA, a soulevé une série de questions éthiques et de sécurité.
Les "deep fakes" utilisent des algorithmes d'IA pour extraire des modèles de mouvements faciaux, de modulations vocales et de langage corporel à partir d'un contenu audio ou vidéo existant. Grâce à cette analyse, l'IA peut créer des contrefaçons très convaincantes qu'il est pratiquement impossible de distinguer de la réalité.
En outre, la maltraitance des enfants générée par l'IA va probablement remettre en question la législation existante dans le monde entier. Si les images illicites d'enfants générées par l'IA sont légalement traitées de la même manière que les images réelles au Royaume-Uni, ce n'est peut-être pas le cas ailleurs.
Les législateurs ont du mal à suivre le rythme de l'IA, qui est beaucoup plus agile que les processus législatifs encombrants.
En attendant, les fraudeurs et les criminels brouillent les frontières entre ce qui est réel et ce qui ne l'est pas, tout en exploitant les lacunes de la loi.
Le premier cas très médiatisé de fraude assistée par l'IA a eu lieu en 2019 des fraudeurs ont utilisé l'IA pour se faire passer pour la voix d'un PDG et convaincre un cadre supérieur de transférer 220 000 euros ($243 000), en prétendant qu'il s'agissait d'un paiement urgent à un fournisseur. Le cadre croyait parler avec le PDG, mais en réalité, il interagissait avec un faux profond.
Au début de l'année, une fausse image d'un explosion au Pentagone a circulé sur les médias sociaux, entraînant une baisse temporaire de la bourse américaine de 0,3%.
Nombreux sont ceux qui craignent que l'IA ne soit utilisée pour créer de fausses nouvelles ou des contenus diffamatoires sur des personnalités politiques. Les politiciens utilisent déjà des informations générées par l'IA du contenu pour soutenir leurs campagnes.
En outre, on assiste à une augmentation de la pornographie non consensuelle de type "deep fake", où le visage d'une personne est superposé sur des images ou des vidéos explicites sans son consentement.
Les Le FBI a mis en garde sur la sextorsion par IA au début du mois de juin : "Des acteurs malveillants utilisent des technologies et des services de manipulation de contenu pour exploiter des photos et des vidéos - généralement capturées à partir du compte d'un individu sur les médias sociaux, de l'internet ouvert ou demandées à la victime - en images à caractère sexuel qui semblent plus vraies que nature, puis les font circuler sur les médias sociaux, les forums publics ou les sites web pornographiques". De nombreuses victimes, dont des mineurs, ignorent que leurs images ont été copiées, manipulées et diffusées jusqu'à ce que quelqu'un d'autre le leur signale".
Un documentaire britannique, Ma blonde GFL'auteur de l'article explore un cas réel de pornographie vengeresse profondément fausse qui a bouleversé la vie de l'écrivaine Helen Mort.
Des entreprises technologiques telles que Google, Twitter et Facebook développent des outils de détection pour identifier les contenus profondément faux, mais à mesure que l'IA devient plus sophistiquée, ces mécanismes pourraient devenir moins fiables.
Bien que des progrès soient réalisés, les particuliers, les entreprises et la société dans son ensemble doivent rester informés des risques potentiels de la technologie du "deep fake", qui a été mise en évidence comme l'un des risques les plus imminents et les plus pressants de l'IA.