Quels sont les pays leaders en matière d'IA les plus intéressés par la création de Deep-Fake ?

22 mars 2024

Si la prolifération des outils et des technologies d'IA a déjà apporté de nombreux avantages aux particuliers et aux entreprises, il est également vrai que l'accessibilité accrue des outils d'IA a eu des conséquences néfastes sur le niveau de désinformation diffusé dans le monde.

L'utilisation de faux en profondeur pour dénaturer des personnalités influentes est une préoccupation croissante dans le monde entier. La désinformation a été classée comme la principale menace à laquelle le monde sera confronté au cours des deux prochaines années par le Forum économique mondial (WEF). Rapport sur les risques mondiaux (2024).

La désinformation liée à l'IA est un problème mondial - mais quels sont les pays qui luttent le plus farouchement contre ces problèmes ? Dans cette étude, notre équipe de DailyAI a pris les principaux pays en matière d'intelligence artificielle (en fonction de leur capacité de recherche) et a analysé la fréquence moyenne et la profondeur de l'intérêt pour les outils liés à l'intelligence artificielle (deep fake).

Principales conclusions :

  • Singapour, l'Australie, la Finlande et les Pays-Bas arrivent en tête des pays les plus intéressés par la création de "deep fakes".
  • La Chine, bien qu'elle soit le deuxième pays en matière d'intelligence artificielle, est le pays le moins intéressé par l'intelligence artificielle en général, selon nos conclusions.

Sam Jeans, expert en IA de DailyAI, commente :

"L'augmentation considérable du nombre de faux et de contenus manipulés publiés en ligne est, à juste titre, une source d'inquiétude majeure pour les gouvernements du monde entier, car nous essayons de trouver les bonnes limites entre l'exploitation des technologies nouvelles et émergentes et la lutte contre les éléments qui peuvent causer des dommages sans précédent.

Ces résultats démontrent que l'intérêt pour la manipulation de faux contenus est certainement plus répandu dans certains pays que dans d'autres, mais comme ces contenus sont accessibles à l'échelle mondiale, un effort collectif sera nécessaire pour veiller à ce que le préjudice causé par les faux contenus soit réduit au minimum.

L'Australie est la plus intéressée par les fabricants de faux billets de banque

En évaluant l'intérêt des 10 principaux pays en matière d'intelligence artificielle pour les "deep fake makers" et les recherches connexes, nous avons constaté que l'Australie est le pays le plus intéressé, avec un taux d'occurrence de 0,41 sur 100 000 personnes.

L'Australie figure également dans le trio de tête des pays ayant effectué le plus grand nombre de recherches pour "deep fake porn maker", et en quatrième position pour "deep fake image maker". L'Australie est actuellement considérée comme le sixième pays en termes de capacités et de recherche dans le domaine de l'intelligence artificielle.

À la fin de l'année 2023, l'Australie a annoncé qu'elle serait Faire pression sur les plateformes de médias sociaux à sévir contre les images et les vidéos profondément truquées, après avoir constaté avec une inquiétude croissante le niveau de contenu offensant et de commentaires haineux diffusés en ligne.

Singapour plus fasciné par les capacités de deep fake porn

Nos analyses ont également montré que Singapour se classe en tête des recherches sur les "deep fake porn makers", avec un taux d'occurrence de 0,50 pour 100 000 personnes. En outre, le pays se place en deuxième position pour ce qui est des "deep fake video makers" et en deuxième position pour ce qui est des "deep fake nude makers". Les recherches pour ce terme ont un taux d'occurrence de 0,17 pour 100 000 personnes - le même que celui des Pays-Bas et des États-Unis.

Ce résultat est quelque peu surprenant étant donné que l'intérêt de Singapour pour les "deep fake makers" en général est bien moindre - le pays se situant au milieu du classement pour ce terme de recherche.

Singapour est cependant le deuxième pays le plus fasciné par le terme de recherche "deep fake image maker", avec un taux d'occurrence de 0,17 pour 100 000 personnes. Le pays se classe deuxième derrière la Finlande pour ce terme de recherche.

Singapour est le troisième pays en termes de recherche et de capacités dans le domaine de l'intelligence artificielle. L'un des cas les plus notables d'utilisation de "deep fakes" à Singapour a été celui d'un "deep fakes". vidéo sur l'escroquerie à l'investissement qui a circulé sur les médias sociaux en 2023, utilisant le vice-premier ministre, Lawrence Wong, et une fausse voix off promouvant l'opportunité d'investissement frauduleuse.

Les Pays-Bas enregistrent presque deux fois plus de recherches sur les "deep fake video makers" que n'importe quel autre pays.

Si les Pays-Bas n'apparaissent pas particulièrement dans les autres recherches liées aux "deep fake", le pays a un intérêt indéniable pour la création de contenus vidéo "deep fake" en particulier.

L'occurrence des recherches sur les "deep fake video makers" était de 0,96 pour 100 000 personnes, soit presque le double de celle du pays classé en deuxième position, Singapour, là encore avec 0,50 recherche pour 100 000 personnes.

Les Pays-Bas sont un autre pays dans lequel des faux politiciens en profondeur ont été utilisés pour tromper l'opinion publique. Lors des élections de novembre 2023, un nombre alarmant de fausses manipulations profondes ont été signalées sur les médias sociaux de nombreux politiciens de premier plan.

C'est en Finlande que l'on trouve le plus d'intérêt pour les fausses images et les nus profonds

Enfin, la Finlande se classe parmi les pays les plus intéressés par les "deep fakes", avec le plus grand nombre de recherches sur les "deep fake nude makers" et les "image makers" (0,18 pour 100 000 personnes pour chaque terme de recherche respectif).

La Finlande est actuellement classée au neuvième rang des pays les plus performants en matière de recherche et de capacités dans le domaine de l'intelligence artificielle. Le pays est souvent applaudi pour sa mission qui consiste à mettre en place des systèmes d'intelligence artificielle. l'éducation au premier plan de la lutte contre la désinformation et les "fake news" - mais comme nous le démontrons ici, cela ne dissuade pas toujours les gens de s'intéresser à ce que ces nouvelles formes d'IA peuvent accomplir.

Les États-Unis font preuve d'un manque d'intérêt notable pour les contrefaçons profondes

Les États-Unis sont actuellement considérés comme le pays leader en matière de recherche et de capacités dans le domaine de l'intelligence artificielle, et l'on peut donc imaginer que le pays est également à la pointe de l'intérêt pour les "deep fake makers".

Cependant, notre classement montre que le pays n'est décidément pas intéressé par la création de deep fakes par rapport aux autres pays de cette liste. Les États-Unis se classent en deuxième position, aux côtés des Pays-Bas et de Singapour, pour les recherches portant sur les créateurs de faux nus profonds, mais occupent une place moyenne dans le classement pour d'autres termes apparentés.

Néanmoins, de nombreuses célébrités américaines ont déjà été la cible de vidéos et d'images truquées mises en ligne. l'élaboration de nouvelles lois pour protéger les individus contre les préjudices que peuvent causer les contenus profondément frauduleux.

La Chine est globalement moins intéressée par les "deep fake makers

Bien qu'elle soit considérée comme le deuxième pays en matière d'intelligence artificielle, derrière les États-Unis, la Chine ressort de notre étude comme le pays le moins intéressé par les "deep fake makers", toutes requêtes confondues. 

La Chine se situe en bas du classement pour les recherches de "deep fake makers", y compris les recherches pornographiques, ce qui suggère que les capacités des "deep fakes" n'ont peut-être pas encore atteint le grand public dans le pays.

Cependant, il est également important de noter que les données de recherche peuvent ne pas être 100% exactes pour les recherches spécifiques à la Chine. L'IA n'est certainement pas une nouveauté en Chine. Des fakes profonds de livestreamers de l'eau 24 heures sur 24, 7 jours sur 7, qui fera la une des journaux en 2023, à l'augmentation de la consommation d'eau dans le monde. escroqueries financières en utilisant la technologie du "deep fake". L'hypothèse selon laquelle nous ne sommes pas en mesure d'accéder à des données de recherche totalement exactes en provenance de Chine sur des requêtes liées à l'intelligence artificielle est peut-être plus probable.

Comment repérer un faux en profondeur

Pour discerner l'authenticité d'un contenu numérique et identifier les contrefaçons les plus graves, il est important de savoir quels sont les signes révélateurs à observer. Les indicateurs suivants peuvent vous aider à faire la différence entre un contenu authentique et des contrefaçons sophistiquées :

1. Incohérences dans l'éclairage et les ombres

Les deepfakes ont souvent du mal à reproduire avec précision les nuances de l'éclairage naturel et des ombres. Recherchez les irrégularités dans la façon dont la lumière interagit avec le sujet, telles que des ombres mal assorties ou un éclairage incohérent dans les différentes parties de la scène.

2. Anomalies des traits du visage

Observez attentivement les expressions faciales et les traits du sujet de la vidéo de l'imge. Les imitations profondes présentent souvent des anomalies telles que des clignements d'yeux non naturels, des mouvements de lèvres bizarres ou des expressions faciales qui ne correspondent pas au ton émotionnel de la voix ou à la situation. Au fur et à mesure que la technologie progresse, ces anomalies deviennent de plus en plus légères.

3. Inadéquations audiovisuelles

Dans le cas de faux profonds, la synchronisation entre les éléments sonores et visuels peut être défectueuse. Vérifiez si les mouvements des lèvres du sujet sont parfaitement synchronisés avec les mots prononcés. Tout retard ou décalage entre les éléments visuels et sonores peut être un signal d'alarme indiquant qu'il s'agit d'un deep fake.

4. Texture de la peau et teint

Les "deepfakes" ont parfois du mal à reproduire la texture de la peau humaine de manière réaliste. Soyez attentif à tout signe de texture anormale de la peau ou à tout changement de teinte de la peau qui ne semble pas naturel ou cohérent tout au long de la vidéo.

5. Incohérences de fond

Analysez l'arrière-plan pour détecter tout signe de distorsion ou de fluctuation. La technologie Deepfake peut se concentrer sur le sujet et négliger l'arrière-plan, ce qui entraîne des anomalies dans l'environnement.

6. Qualité et résolution

Méfiez-vous des vidéos présentées comme officielles, mais dont la résolution ou la qualité est délibérément faible. Il arrive que les créateurs de contrefaçons profondes utilisent une qualité inférieure pour dissimuler des imperfections et des anomalies qui seraient plus visibles en haute définition.

Méthodologie

Pour obtenir ces résultats, notre équipe DailyAI s'est approvisionnée en 10 premiers pays considérés comme étant à la pointe de l'IA en 2023. Nous avons ensuite déterminé le volume de recherche mensuel moyen pour un certain nombre de termes liés à la fabrication de deep fake, puis le nombre moyen de recherches pour 100 000 habitants afin de compenser tout biais lié à des pays dont la population est plus importante.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation