Un pédopsychiatre de Caroline du Nord, David Tatum, a été condamné à une peine de 40 ans d'emprisonnement dans une affaire qui fait date et qui met en lumière l'utilisation abusive de l'IA dans le cadre d'activités criminelles.
David Tatum, 41 ans, a été reconnu coupable d'un chef de production de pornographie enfantine, d'un chef de transport de pornographie enfantine et d'un chef de possession de pornographie enfantine.
Toutefois, ce qui distingue cette affaire, c'est l'utilisation de l'IA pour manipuler numériquement des images de mineurs habillés, les rendant sexuellement explicites. Tatum a enregistré illicitement des mineurs pendant qu'ils se déshabillaient et se douchaient et a utilisé l'IA pour les transformer en images sexuelles.
Le bureau du procureur américain pour le district occidental de Caroline du Nord a confirmé que ces infractions étaient liées à l'IA et en a souligné la gravité. L'affaire est également particulièrement troublante car certaines des victimes de Tatum auraient été ses propres patients.
Dans sa déclaration, le procureur Dena J. King a souligné la gravité des actes de Tatum : "En tant que pédopsychiatre, Tatum connaissait les effets néfastes et durables de l'exploitation sexuelle sur le bien-être des enfants victimes. Malgré cela, il s'est livré à une pratique dépravée consistant à utiliser des enregistrements secrets de ses victimes pour créer des images et des vidéos illicites d'elles".
M. King a insisté sur l'utilisation abusive de l'intelligence artificielle en déclarant : "Tatum a également utilisé l'intelligence artificielle de la pire façon qui soit : pour victimiser des enfants".
Elle a également assuré que son bureau s'engageait à poursuivre les personnes qui exploitent ces technologies pour nuire aux enfants.
La peine prononcée à l'encontre de Tatum comprend 40 ans de prison et trois décennies supplémentaires de liberté surveillée.
L'agent spécial du FBI Robert M. DeWitt s'est dit choqué par ces révélations : "Il est horrible de croire que quelqu'un puisse enregistrer secrètement des enfants en train de se déshabiller et de se doucher pour sa propre satisfaction sexuelle".
La manière dont la loi interagit avec l'imagerie illicite générée ou modifiée par l'IA a fait l'objet d'un débat très médiatisé, les procureurs des États américains s'étant regroupés pour faire pression sur le Congrès afin qu'il élabore des lois fédérales. en septembre.
Deux incidents se sont produits dans des écoles, un dans le New Jersey et un en EspagneLes images sexuellement explicites générées par l'intelligence artificielle ont un impact sur les mineurs, d'une manière ou d'une autre.
Cette affaire, qui semble être la première du genre, devrait faire comprendre que de tels crimes ne sont pas admissibles dans le cadre d'une interaction avec l'IA et qu'ils seront traités de manière proportionnée.
Ce n'est pas un incident isolé
Ce cas choquant n'est malheureusement pas un incident isolé, mais s'inscrit dans une tendance mondiale inquiétante d'utilisation abusive de la technologie de l'IA pour créer de fausses images d'abus sexuels sur des enfants.
Selon un rapport de l'Internet Watch Foundation (IWF)Depuis quelques années, on assiste à une augmentation significative des images d'abus d'enfants générées par l'IA, en particulier sur le dark web.
L'organisme de surveillance basé au Royaume-Uni a identifié près de 3 000 images de ce type qui enfreignaient les lois britanniques. Ces modèles d'IA sont alimentés par des images de victimes d'abus réels afin de générer de nouveaux contenus abusifs. Ils sont également utilisés pour créer des images de célébrités mineures dans des scénarios abusifs et pour "nudifier" des photos d'enfants habillés trouvées en ligne.
L'IWF a exprimé de vives inquiétudes quant à cette tendance, la directrice générale Susie Hargreaves déclarant que ses "pires cauchemars sont devenus réalité", en référence à l'accélération de l'utilisation de la technologie de l'IA à des fins malveillantes.
Au cours de son enquête d'un mois sur un forum du dark web, l'IWF a révélé qu'une grande partie des images enfreignaient la législation britannique, le 20% étant considéré comme la forme la plus grave de contenu abusif.
Selon l'IWF, l'accès facile à des modèles d'IA libres tels que la diffusion stable, qui ne bénéficient pas des mêmes garanties que les modèles commerciaux, exacerbe le problème.