Une enquête menée par NBC News a révélé que des moteurs de recherche populaires, tels que Google et Bing de Microsoft, favorisent par inadvertance la pornographie non consensuelle de type "deep fake".
La technologie Deep fake, qui est devenue un terme fourre-tout pour toute application d'IA capable de générer des vidéos, des images et des sons extrêmement réalistes.
Il est de plus en plus utilisé pour créer du matériel pornographique sans consentement, souvent en ciblant des célébrités féminines.
NBC News a réalisé recherche de 36 célébrités féminines populaires avec le terme "deepfakes" sur Google et Bing. Les résultats sont alarmants : Google a affiché des images "deepfakes" non consensuelles dans les premiers résultats pour 34 de ces recherches, tandis que Bing l'a fait pour 35 d'entre elles.
En outre, ces résultats de recherche comportaient souvent des liens vers des sites web connus pour distribuer ce type de contenu "deepfake".
La situation est exacerbée par le fait que la recherche de termes tels que "faux nus" sur ces plateformes renvoie à de nombreux liens permettant de créer et de visionner des photos de nus. pornographie profonde non consensuelle.
Les experts juridiques, les défenseurs et les victimes de cette technologie ont exprimé de sérieuses inquiétudes.
Le "deep fake porn" non consensuel ne viole pas seulement la vie privée, mais contribue également à l'objectivation sexuelle et au harcèlement des femmes. Dans certains cas, les deep fakes vont jusqu'à l'abus sexuel d'enfants, qui découle d'images illicites contenues dans des images populaires. des bases de données de formation comme LAION.
À l'heure actuelle, Google n'a pas déployé d'efforts systématiques pour identifier et supprimer ces contenus, et il se peut que cela ne soit pas possible de manière réaliste à quelque échelle que ce soit.
Un porte-parole de Google a déclaré : "Nous comprenons à quel point ce contenu peut être pénible pour les personnes concernées, et nous travaillons activement à apporter davantage de protections à la recherche".
Ils ont souligné que les algorithmes de recherche de Google sont conçus pour éviter d'afficher de manière inattendue des contenus préjudiciables ou explicites.
Microsoft, pour sa part, a une politique contre l'imagerie intime non consensuelle (NCII) et inclut les deepfakes sexuellement explicites dans cette catégorie. Les victimes peuvent signaler ce type de contenu apparaissant dans les résultats de recherche de Bing.
Un porte-parole de Microsoft a déclaré : "La diffusion d'images intimes non consensuelles est une violation flagrante de la vie privée et de la dignité des personnes, qui a des effets dévastateurs sur les victimes".
Les "deep fakes" sont un aspect complexe de l'IA, car ils permettent aux acteurs malveillants de manipuler les résultats des électionscréer une controverse au milieu d'événements tels que la guerre israélo-palestinienne, et organiser des escroqueries.
Il s'agit là d'un problème insoluble, car à terme, l'IA deviendra pratiquement impossible de distinguer les faux médias des vrais médias au niveau du pixel.