La inteligencia artificial está dando nueva forma a las campañas políticas en todo el mundo, presentando estrategias innovadoras y posibilidades de desinformación.
Políticos de Toronto, Nueva Zelanda y Chicago ya emplean la IA en sus campañas.
Por ejemplo, un candidato a la alcaldía de Toronto utilizó la IA para generar imágenes distópicas de refugios para personas sin hogar, mientras que un partido político de Nueva Zelanda publicó una imagen generada por IA de un robo ficticio en una joyería. En Chicago, la polémica surgió cuando una cuenta de Twitter que se hacía pasar por un medio de comunicación utilizó IA para duplicar la voz de un candidato a la alcaldía, sugiriendo que aprobaba la brutalidad policial.
A muchos les preocupa que las falsificaciones profundas puedan utilizarse para desprestigiar a los políticos y dañar su reputación. Los mecanismos de protección existentes, incluidos los servicios que afirman detectar contenidos de IA, parecen en gran medida ineficaces.
Las próximas elecciones presidenciales estadounidenses de 2024 ya están siendo testigos del impacto de la IA. El Comité Nacional Republicano publicó un vídeo generado por IA en el que se mostraban los peores escenarios posibles tras el anuncio de reelección de Biden. Los demócratas también han experimentado con mensajes de recaudación de fondos generados por IA.
Se están realizando esfuerzos para regular la IA, con proyectos de ley presentados en el Congreso para exigir cláusulas de exención de responsabilidad en los anuncios políticos generados por IA.
Por su parte, la Asociación Americana de Consultores Políticos ha declarado que el uso de contenidos falsos en las campañas políticas es un delito. incumplimiento de su código ético.
No obstante, algunos políticos, como el candidato a la alcaldía de Toronto Anthony Furey, están aprovechando la IA. Furey utilizó la IA para generar contenidos que reforzaran su postura de mano dura contra la delincuencia, a pesar de la evidente naturaleza artificial de algunas imágenes.
A los expertos políticos les preocupa que la IA pueda propagar información errónea, que es uno de sus principales objetivos. amenazas acuciantes.
Según Ben Colman, director general de Reality Defender, los contenidos de IA no etiquetados pueden causar "daños irreversibles" antes de que se les haga frente. "Explicar a millones de usuarios que el contenido que vieron y compartieron era falso mucho después es demasiado poco y demasiado tarde", afirma.
La IA de falsificaciones profundas realistas también suscita temores sobre el fenómeno del "dividendo del mentiroso", por el que los políticos podrían descartar imágenes auténticas pero comprometedoras.
Como investigador del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown Josh A. Goldstein explica"Si la gente no puede confiar en sus ojos y oídos, puede que se limiten a decir: 'Quién sabe'".