Plusieurs vidéos d'enfants assassinés et maltraités, générées par l'intelligence artificielle, ont récemment été diffusées sur TikTok.
L'une des vidéos, qualifiée d'"éducative" par la chaîne, décrit le destin tragique de James Bulger a été enlevé par Jon Venables et Robert Thompson, alors âgés de 10 ans, en 1993, dans le Merseyside, à Liverpool.
Bulger, qui n'avait alors que deux ans, a été horriblement maltraité et torturé avant d'être retrouvé mort près d'une voie ferrée. Venables et Thompson sont devenus les plus jeunes personnes condamnées pour meurtre au Royaume-Uni et les plus jeunes meurtriers condamnés du XXe siècle.
Denise Fergus, la mère du fils assassiné James Bulger, a condamné les vidéos générées par l'IA de son fils décédé, les qualifiant de "plus que malsaines".
Ces vidéos font partie d'une série qui utilise la technologie de l'IA pour recréer des enfants disparus ou assassinés, notamment Madeleine McCann, qui a disparu pendant les vacances de sa famille en 2007 ; Rhys Jones, 11 ans, abattu par erreur par un membre de gang à Liverpool ; et Peter Connolly, également connu sous le nom de "Baby P", qui est mort de négligence et de maltraitance.
Certaines de ces vidéos ont accumulé des dizaines de milliers de vues avant d'être supprimées et ont été téléchargées sans aucun avertissement quant à leur contenu.
S'adresser à Le miroirDenise Fergus, la mère de James Bulger, a qualifié les vidéos de "dégoûtantes".
Mme Fergus a indiqué que si elle ne voyait aucun inconvénient à rendre compte de ces affaires, elle trouvait "absolument dégoûtant" de voir le visage de son fils décédé utilisé de la sorte.
"C'est ramener un enfant mort à la vie. C'est plus que malsain", a-t-elle déclaré. "Qui peut s'asseoir là et penser à une telle chose ?" a-t-elle demandé, ajoutant : "Ce n'est pas juste pour les personnes qui ont perdu des enfants, ou qui ont perdu quelqu'un."
Son mari, Stuart Fergus, a contacté le compte, apparemment basé aux Philippines, pour demander la suppression du contenu offensant. La réponse qu'il a reçue indiquait qu'ils "n'avaient pas l'intention d'offenser qui que ce soit" et qu'ils voulaient s'assurer que de tels incidents "ne se reproduiraient plus", tout en appelant à soutenir et à partager leur page.
TikTok a réagi à la controverse, déclarant à la BBC que les vidéos incriminées avaient été retirées, affirmant qu'il n'y avait "pas de place" sur l'application pour ce type de contenu.
Un porte-parole de TikTok a souligné les directives communautaires de l'entreprise, déclarant qu'elle "n'autorise pas les médias synthétiques qui contiennent l'image d'un jeune" et a promis de continuer à supprimer ce type de contenu.
Les "deep fakes" prennent une tournure sinistre
Les contrefaçons profondes générées par l'IA ont été utilisées pour sextorsion, escroquerieset générant des abusdes images pédophiles.
On entend de plus en plus souvent dire que les risques futuristes de l'IA - tels que la prise de contrôle d'infrastructures critiques ou le retournement contre ses créateurs - sont une distraction par rapport aux impacts immédiats tels que les "deep fakes", la désinformation et la cybercriminalité.
Les "deep fakes" devenant de plus en plus sophistiqués, il sera de plus en plus difficile de discerner le numérique du physique. Comme c'est souvent le cas dans le monde de l'IA, l'impact de ce phénomène est sans précédent.