Les conditions actualisées de Google concernant l'utilisation de matériel généré par l'IA ou d'autres éléments "inauthentiques" dans la publicité politique entreront en vigueur à la mi-novembre.
Les nouvelles dispositions exigent que les publicités politiques comportent une mention "claire et visible" si elles incluent un "contenu synthétique qui représente de manière inauthentique des personnes ou des événements réels ou d'apparence réaliste".
Cette politique s'applique aux images, aux vidéos et aux contenus audio. La divulgation ne sera pas nécessaire si, par exemple, l'IA est utilisée pour un montage qui n'a pas d'incidence sur l'authenticité des affirmations faites dans la publicité.
À un peu plus d'un an des élections présidentielles américaines, les discussions sur l'IA et son potentiel de désinformation politique s'intensifient. Les nouveaux termes de Google ne mentionnent pas spécifiquement l'IA, mais les progrès des outils d'IA générative sont probablement au cœur de cette dernière décision.
Les exemples donnés dans les nouvelles conditions d'utilisation indiquent clairement quel type de publicité doit être mis en évidence :
- Une publicité avec un contenu synthétique qui donne l'impression qu'une personne dit ou fait quelque chose qu'elle n'a pas dit ou fait.
- Une publicité au contenu synthétique qui modifie les images d'un événement réel ou qui génère une représentation réaliste d'un événement afin de dépeindre des scènes qui n'ont pas réellement eu lieu.
Au cours des derniers mois, nous avons déjà vu quelques contenu politique qui tomberait sous le coup de la loi de ces nouveaux termes.
Comme cette vidéo générée par l'IA qui prétend montrer à quoi ressemblerait un avenir dystopique si Joe Biden était réélu en 2024.
Si vous regardez attentivement le coin supérieur gauche de la vidéo, vous verrez un texte indiquant "Entièrement construit avec des images d'IA".
La formulation de l'information est peut-être correcte, mais elle devrait être beaucoup plus grande et plus visible pour répondre aux exigences de Google.
Ron DeSantis aurait dû ajouter une déclaration similaire à sa publicité de campagne qui utilisait l'IA pour générer des images de Donald Trump embrassant Anthony Fauci. Cette publicité a suscité un grand nombre de réactions de la part des médias. l'attention des régulateurs américains au début de cette année.
La publicité de M. DeSantis utilise de fausses images de Trump embrassant M. Fauci. https://t.co/PA74FsDea4 pic.twitter.com/2zsX01io58
- The Verge (@verge) 8 juin 2023
La vérité et la politique n'ont pas une grande histoire, et pendant la campagne électorale, les politiciens ont tendance à exercer leur licence créative plus qu'à l'accoutumée.
La frontière entre la satire politique, le message et la désinformation intentionnelle est parfois un peu floue. Beaucoup de gens reconnaîtraient immédiatement la vidéo de Biden ou la photo de Trump avec Fauci comme manifestement inauthentiques.
N'est-ce pas faire preuve de condescendance à l'égard de l'électorat que d'apposer une grande étiquette "Danger AI !" sur un contenu comme celui-ci ? Par ailleurs, la pensée critique en général ne semble pas évoluer au même rythme que les capacités de l'IA.
Et même si nous pensons être capables de repérer un faux, notre biais de confirmation est souvent du côté de l'équipe de l'IA.
Donald Trump en train de rapper sur ses déboires judiciaires est un faux facile à repérer. Qu'en est-il d'un interview téléphonique potentiellement fausse de Donald Trump sur une chaîne d'information en ligne ? Aujourd'hui, les gens ne sont plus très sûrs.
Pour l'instant, des plateformes comme Meta et X n'ont pas ajouté d'exigences similaires pour leurs publicités politiques. À l'approche des élections, nous verrons probablement des publicités politiques intéressantes générées par l'IA, ce qui pourrait les inciter à suivre l'exemple de Google.