Lors de la conférence de Munich sur la sécurité, une coalition de 20 géants de la technologie, dont OpenAI, Meta, Microsoft et d'autres, a déclaré un effort commun pour lutter contre les contenus d'IA trompeurs qui influencent les élections dans le monde entier.
Cette décision intervient alors que l'on craint de plus en plus que les "deep fakes" générés par l'IA ne manipulent les processus électoraux, en particulier à l'approche d'élections majeures dans plusieurs pays cette année.
Nous avons déjà vu les contrefaçons profondes jouent un rôle dans les élections au Pakistan, en Indonésie, en Slovaquie et au Bangladesh, au moins.
Ce nouvel accord comprend des engagements à développer des outils pour détecter et traiter les médias trompeurs générés par l'IA, à sensibiliser le public aux contenus trompeurs et à prendre des mesures rapides pour retirer ces contenus de leurs plateformes.
La vérité, c'est que nous l'avons déjà entendue à maintes reprises. Qu'est-ce qui est différent aujourd'hui ?
Bien que les délais de mise en œuvre restent vagues, les entreprises ont insisté sur la nécessité d'une approche collective pour faire face à cette menace en constante évolution.
Les entreprises technologiques se sont engagées à déployer des outils collaboratifs pour détecter et atténuer la diffusion de contenus électoraux nuisibles générés par l'IA, y compris des techniques telles que le filigrane pour certifier l'origine du contenu et les modifications. Elles se sont également engagées à faire preuve de transparence dans leurs efforts et à évaluer les risques posés par leurs modèles d'IA générative.
"Je pense que l'utilité de cet accord réside dans l'étendue des entreprises qui y adhèrent", a déclaré Nick Clegg, président des affaires mondiales chez Meta Platforms.
"C'est très bien si les plateformes individuelles développent de nouvelles politiques de détection, de provenance, d'étiquetage, de filigrane, etc., mais s'il n'y a pas d'engagement plus large pour le faire d'une manière interopérable et partagée, nous serons coincés avec un méli-mélo d'engagements différents".
Là encore, rien que nous n'ayons déjà entendu. Plusieurs accords interprofessionnels ont été conclus, mais aucun plan réellement efficace n'a été mis en place pour mettre un terme aux contrefaçons profondes.
Par exemple, MLCommons collabore avec Big Tech pour définir des critères de sécurité, les entreprises engagées dans le filigraneet a rejoint le Frontier Model ForumIl s'agit, là encore, d'établir une "approche unifiée". Ces trois accords sectoriels viennent de me venir à l'esprit, mais il y en a certainement beaucoup d'autres.
Les "deep fakes" ne sont pas faciles à détecter, surtout à grande échelle. Elles sont devenues si proches de la réalité que les identifier à l'aide de l'IA ou de techniques algorithmiques n'est pas chose aisée. exceptionnellement difficile.
Les entreprises technologiques ont réagi en étiquetant le contenu avec des métadonnées, l'identifiant comme étant généré par l'IA, mais comment cela permet-il d'identifier l'objectif de l'image ?
Les métadonnées peuvent également être facilement supprimées d'un fichier. Par ailleurs, il y aura toujours des entreprises d'IA qui ne respecteront pas les accords et qui trouveront des moyens de contourner les contrôles en place.
Dana Rao, Chief Trust Officer d'Adobe, a expliqué comment et pourquoi ce contenu était efficace : "Il existe un lien émotionnel avec l'audio, la vidéo et les images", a-t-il déclaré. "Le cerveau est programmé pour croire à ce type de média.
En effet, les deep fakes semblent se propager longtemps après avoir été déclarés faux. S'il est difficile de quantifier à quel point ils modifient notre comportement, l'ampleur même de leur impact - le contenu étant visionné par des millions de personnes à la fois - ne permet pas de prendre le moindre risque.
Le fait est que nous pouvons nous attendre à d'autres incidents et controverses liés à l'IA dans le domaine du deep fake.
La prise de conscience individuelle et la pensée critique seront les principales armes de l'humanité pour lutter contre les impacts négatifs.