Une enquête détaillée menée par des journalistes de la BBC a mis au jour une tendance alarmante de vidéos YouTube générées par l'intelligence artificielle et contenant de fausses informations "scientifiques" destinées à induire en erreur les jeunes spectateurs.
L'équipe de la BBC a découvert "plus de 50 chaînes dans plus de 20 langues diffusant de la désinformation déguisée en contenu STEM [science, technologie, ingénierie, mathématiques]".
Ces chaînes sont spécialisées dans les pseudo-sciences, les fausses informations et les théories du complot, qui vont de l'affirmation de l'existence de pyramides productrices d'électricité au déni du changement climatique causé par l'homme, en passant par des discussions sur les êtres extraterrestres.
Les algorithmes de YouTube recommandent ces vidéos aux jeunes spectateurs.
L'IA a simplifié le processus de création de vidéos YouTube à l'aide de méthodes automatisées, ce qui a suscité des inquiétudes quant à la baisse de la qualité du contenu sur la plateforme.
Le rôle de l'IA dans la diffusion de la désinformation
Les Analyse de la BBC a révélé que la majorité de ces vidéos trompeuses avaient utilisé des programmes d'IA générative, tels que ChatGPT et MidJourney, pour produire du texte, des images et des narrations.
Le YouTubeur et éducateur scientifique Kyle Hill a eu une expérience directe de ce problème, déclarant : "Les créateurs semblent avoir volé et manipulé des contenus exacts, puis les ont republiés".
Il ajoute : "Ces chaînes semblent avoir identifié exactement ce qu'il faut pour maximiser le nombre de vues avec le moins d'efforts possible".
L'équipe de la BBC a mené une expérience pour comprendre l'ampleur de l'exposition des enfants à ce contenu trompeur.
Ils ont créé des comptes d'enfants sur YouTube et ont constaté que ces vidéos de "mauvaise science" générées par l'IA étaient effectivement recommandées à ces comptes.
Les enfants réagissent
L'enquête a également permis d'évaluer les réactions aux vidéos en les montrant à deux groupes d'enfants âgés de 10 à 12 ans.
Une vidéo portait sur les conspirations liées aux ovnis et aux extraterrestres, tandis qu'une autre prétendait à tort que les pyramides de Gizeh étaient utilisées pour produire de l'électricité.
Un enfant a déclaré : "J'ai aimé le regarder", "Au début, je n'étais pas sûr que les extraterrestres existent, mais maintenant je pense qu'ils existent".
Certains ont détecté le faux contenu : "J'ai trouvé assez drôle qu'ils n'aient même pas utilisé une voix humaine, j'ai pensé que ce n'était pas humain", a déclaré un enfant.
L'interaction de l'IA avec les enfants a fait l'objet d'un vif débat au cours des dernières semaines, 50 procureurs des États américains s'étant prononcés en faveur de l'utilisation de l'IA. s'unissent pour avertir le Congrès des dangers de la technologie pour les jeunes générations au début de ce mois.
En août, la Le Forum économique mondial (WEF) a mis en garde que la politique relative au rôle de l'IA dans la vie des enfants fait cruellement défaut.
Réponse de YouTube
YouTube souligne qu'il recommande YouTube Kids aux moins de 13 ans, affirmant que la qualité des vidéos qui y sont diffusées est "plus élevée".
Toutefois, ils n'ont pas répondu aux questions concernant les recettes publicitaires générées par ces vidéos trompeuses.
Claire Seeley, enseignante dans une école primaire au Royaume-Uni, a fait part de ses inquiétudes quant à l'avenir.
"Nous ne comprenons pas très bien comment les contenus générés par l'IA influencent réellement la compréhension des enfants. En tant qu'enseignants, nous sommes en train de rattraper le temps perdu pour essayer de comprendre ce phénomène".
Le professeur Vicki Nash, directrice de l'Oxford Internet Institute, a soulevé des questions éthiques : "L'idée que YouTube et Google gagnent de l'argent grâce à des publicités diffusées avec des informations pseudo-scientifiques me semble vraiment contraire à l'éthique.
Alors que l'IA continue d'évoluer, les défis posés par la désinformation générée par l'IA ne peuvent que s'intensifier, nécessitant une action vigilante de la part des entreprises technologiques, des éducateurs et des parents.
La réglementation augmentera la pression sur les plateformes de médias sociaux pour qu'elles agissent sur les contenus générés par l'IA, mais ce n'est pas une mince affaire quand il est notoirement difficile de détecter ces contenus au départ.