Meta a annoncé un changement de politique important dans son traitement de la publicité politique, exigeant des annonceurs politiques qu'ils divulguent ouvertement l'utilisation de logiciels d'IA tiers dans leurs publicités.
Cette disposition s'applique spécifiquement aux publicités qui présentent des représentations synthétiques de personnes et d'événements susceptibles d'avoir un impact sur des questions politiques ou sociales.
En outre, Meta interdira l'utilisation de son propre logiciel d'IA pour créer des publicités liées à des questions politiques et sociales, ainsi que des publicités concernant le logement, l'emploi, le crédit, la santé, les produits pharmaceutiques ou les services financiers.
C'est remarquable, Meta a lancé une plateforme d'IA générative explicitement conçu pour générer des publicités avec l'IA en octobre, mais il est encore utilisable en dehors des niches et sujets listés.
Il est de plus en plus évident que les "deep fakes" générés par l'IA faussent les perceptions et les opinions.
À propos d'une image largement diffusée de Donald Trump serrant dans ses bras le Dr Anthony Fauci, spécialiste des maladies infectieuses, Vince Lynch, développeur d'IA, a déclaré : "Il est devenu très difficile pour l'observateur occasionnel de savoir ce qu'il en est : Qu'est-ce que je crois ici ?" Il a ajouté : "Les entreprises doivent prendre leurs responsabilités."
La décision d'interdire les publicités sur l'IA fait partie d'une initiative plus large de Meta visant à atténuer les risques potentiels associés à l'IA générative dans la publicité, en particulier dans les domaines sensibles et réglementés.
Elle s'inscrit également dans la continuité de l'histoire mouvementée de l'entreprise en matière de publicité politique, qui a été un foyer de controverse, en particulier après le cycle électoral de 2016.
Le fondateur et PDG de Meta, Mark Zuckerberg, a déjà été critiqué pour le traitement de la désinformation politique par la plateforme. Malgré les critiques, Mark Zuckerberg a maintenu qu'il était essentiel de laisser une large place au discours politique pour garantir la liberté d'expression.
La direction de Meta, notamment Nick Clegg, son président des affaires mondiales, a depuis lors demandé des conseils réglementaires sur ces questions plutôt que d'imposer elle-même des règles strictes.
Le système actuel exige que les diffuseurs de publicités politiques se soumettent à une procédure d'autorisation et fassent figurer la mention "payé par" sur les publicités.
La prochaine politique en matière d'IA étendra ces efforts de transparence. Elle exigera que les campagnes et les spécialistes du marketing indiquent si des outils d'IA ont été utilisés pour modifier les publicités. Les publicités qui font état de l'utilisation de l'IA seront autorisées à être diffusées avec une note sur cette utilisation.
Meta a déclaré qu'elle n'exigerait pas de divulgation pour les changements qu'elle juge "sans conséquence ou immatériels", tels que de simples retouches photographiques. Les publicités qui semblent utiliser l'IA sans en faire état de manière appropriée seront purement et simplement rejetées.
L'entreprise a également averti que les organisations qui tentent de contourner cette obligation de divulgation à plusieurs reprises s'exposeront à des sanctions, bien que les détails restent inconnus.
La décision de Meta d'interdire les outils d'IA pour certaines catégories d'annonces pourrait également être une décision stratégique visant à éviter d'éventuelles contestations judiciaires. L'entreprise a déjà été confrontée à des actions en justice, notamment en 2019 lorsque le ministère de la Justice l'a poursuivie pour avoir autorisé des pratiques de ciblage publicitaire discriminatoires.
L'action en justice a finalement été réglée, Meta acceptant de modifier sa technologie publicitaire et de payer une amende.
Google a déjà mis à jour ses règles en septembre et d'autres entreprises devraient suivre en adoptant des règles similaires. Préoccupations concernant les publicités sur l'IA s'intensifier avant l'élection présidentielle américaine de 2024.