Una polémica grabación de audio apareció en Facebook a las pocas horas de publicarse el día de las elecciones en Eslovaquia.
En él aparecían voces supuestamente pertenecientes a Michal Šimečka, líder del partido Eslovaquia Progresista, y Monika Tódová, del periódico Denník N.
La conversación giró en torno al amaño de las elecciones y la compra de votos de la minoría romaní, suscitando preocupación por la corrupción y confusión en las redes sociales.
La grabación fue rápidamente desmentida como falsa tanto por Šimečka como por Denník N. El sitio de comprobación de hechos Agence France-Presse (AFP) indicó indicios de manipulación de IA en el audio y posteriormente informaron de ello medios de comunicación internacionales.
Dado el momento -dentro del silencio mediático de 48 horas antes de las elecciones- era difícil desmentir el post a tiempo.
El partido Smer-SD, liderado por el ex primer ministro eslovaco Robert Fico, obtuvo 23% en la votación del sábado, superando al centrista Eslovaquia Progresista, con 18%.
Además, al tratarse de contenido de audio, pasó desapercibido para la política de Meta, que se centra principalmente en los vídeos manipulados.
En vísperas de la votación, Věra Jourová, responsable digital de la UE, subrayó la susceptibilidad de las elecciones europeas a las tácticas manipuladoras a gran escala, aludiendo a influencias externas como las de Moscú.
Ahora, los países están en alerta máxima ante la posibilidad de que la IA interfiera en las elecciones, algo que parece inevitable, pero de lo que se trata es de saber si podemos detenerla y cuánto daño puede causar. Polonia, que se enfrenta a unas elecciones inminentes, será la próxima prueba.
También se avecinan elecciones importantes en 2024 y 2025, como las de Estados Unidos y la India el año que viene.
Los verificadores de hechos como AFP subrayan que la IA se está convirtiendo rápidamente en una potente herramienta para desestabilizar las elecciones, y que estamos mal equipados para contrarrestarla. Veronika Hincová Frankovská, de la organización de verificación de hechos Demagog, comentó: "No estamos tan preparados como deberíamos".
El equipo de Frankovská verificó el origen del audio eslovaco falso y consultó a expertos antes de utilizar un clasificador de voz de inteligencia artificial de Eleven Labs para determinar su autenticidad.
A pesar de la evolución de la IA, seguimos dependiendo en gran medida de los humanos para detectar las falsificaciones profundas.
Las falsificaciones profundas de IA se están convirtiendo en un problema crítico
El papel de la IA en la difusión de desinformación es cada vez mayor, y demostrar que las imágenes, vídeos y grabaciones de la IA son falsos es una tarea hercúlea.
La mayoría de los contenidos falsos están prohibidos en las redes sociales. Ben Walter, representante de Meta, declaró: "Nuestras normas comunitarias se aplican a todos los contenidos... y tomaremos medidas contra los contenidos que infrinjan estas políticas".
En la práctica, sin embargo, detener la difusión de contenidos falsos está resultando intratable, y medidas como la IA las marcas de agua son lamentablemente ineficaces.
Mientras Polonia se prepara para sus elecciones, hay aprensión por la posible afluencia de contenidos generados por IA, y la desinformación ya está causando malestar.
Jakub Śliż, del grupo polaco de comprobación de hechos, la Asociación Pravda, dijo: "Como organización de comprobación de hechos, no tenemos un plan concreto de cómo abordarlo."
Cuando los resultados electorales dependen de márgenes estrechos y diálogos políticos enconados, como ocurrió en Eslovaquia, el impacto de la desinformación generada por IA podría ser grave. Lo que es más, incidentes pasados de desinformación magnificada algorítmicamente, como el escándalo de Cambridge Analytica, nos indican que algunas partes interesadas podrían ser cómplices de estas tácticas.
Las elecciones presidenciales estadounidenses de 2016 ya estuvieron plagadas de desinformación impulsada por activistas extremistas, injerencias extranjeras y medios de comunicación engañosos.
En 2020, las acusaciones infundadas de fraude electoral se hicieron predominantes, reforzando un movimiento contra la democracia que pretendía anular los resultados.
La desinformación impulsada por la IA no sólo corre el riesgo de engañar al público; también amenaza con saturar un entorno informativo ya de por sí frágil, creando un aire de falsedad, desconfianza y engaño.
"Los grados de confianza descenderán, el trabajo de los periodistas y otras personas que intentan difundir información real será más difícil", afirma Ben Winters, representante del Electronic Privacy Information Center.
Nuevas herramientas para viejas tácticas
Imagínese un mundo en el que los contenidos manipuladores se producen a un coste tan insignificante y con tanta facilidad que se convierten en algo habitual.
La desinformación potenciada por la tecnología no es un fenómeno nuevo, pero las herramientas de IA están perfectamente posicionadas para potenciar este tipo de tácticas.
Ya ha habido muchas escaramuzas que indican lo que está por venir. A principios de año, un Imagen generada por IA de un Pentágono La explosión tuvo un impacto tangible en los mercados bursátiles, aunque sólo fuera durante unos minutos antes de que los usuarios de las redes sociales denunciaran las imágenes virales como falsas.
Las imágenes generadas por inteligencia artificial, que parecían mostrar a Donald Trump enfrentándose a la policía, ganaron adeptos en Internet, y el Comité Nacional Republicano emitió un anuncio totalmente generado por inteligencia artificial en el que se preveían catástrofes si Biden era reelegido.
Otro fake viral profundo involucra al gobernador de Florida y candidato republicano, Ron DeSantis, quien publicó imágenes alteradas en las que aparece el expresidente Donald Trump en un Abrazo con el Dr. Anthony Fauci.
X (entonces Twitter) añadió una etiqueta al Tweet original, etiquetándolo como manipulado por IA.
Donald Trump se hizo famoso por DESPEDIR a innumerables personas *en televisión*.
Pero cuando se trataba de Fauci... pic.twitter.com/7Lxwf75NQm
- DeSantis War Room 🐊 (@DeSantisWarRoom) 5 de junio de 2023
En el Reino Unido, el Primer Ministro Rishi Sunak fue manipulado para mostrarle servir una pinta de cerveza de baja calidadpara disgusto de los usuarios de X (entonces Twitter) antes de que se descubriera la autenticidad de la imagen.
Lejos de la arena política, la gente ha estado estafados por defraudadores blandiendo falsificaciones profundas haciéndose pasar por sus amigos o familiares.
Varias mujeres y incluso chicas jóvenes han sido objeto de una falsa "sextorsión", en la que los estafadores les chantajean con imágenes falsas e improperios, algo sobre lo que ya advirtió el FBI a principios de año.
Clones de voz de Omar al-Bashir, ex dirigente de Sudán, apareció recientemente en TikTokavivando el fuego de un país sumido en una guerra civil.
La lista de ejemplos es interminable, y parece que las falsificaciones de IA dominan el texto, las imágenes, el vídeo y el audio.
La IA baja el listón de la desinformación
Las herramientas mejoradas de IA amplifican las tácticas tradicionales de interferencia electoral, tanto en términos de calidad como de escala.
Como hemos visto en las elecciones eslovacas, Josh Goldstein, del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, señala cómo los actores extranjeros pueden generar contenidos convincentes en el idioma deseado.
Afirmó que "las imágenes y vídeos generados por IA pueden crearse mucho más rápido de lo que los factcheckers pueden revisarlos y desacreditarlos."
También existe la posibilidad de explotar la IA para la desinformación masiva selectiva. Por ejemplo, el año pasado dos activistas de extrema derecha utilizaron robocalls (llamadas telefónicas robotizadas dirigidas a un gran número de personas) para difundir información errónea sobre las elecciones a miles de votantes negros.
EE.UU. se prepara para la desinformación electoral con IA
En 2024 se celebrarán varias elecciones de alto nivel, por lo que la influencia de las campañas de desinformación impulsadas por inteligencia artificial va a quedar al descubierto.
En respuesta a la creciente influencia de la IA, gigantes tecnológicos como Google han puesto en marcha medidas, como etiquetas obligatorias para los anuncios políticos que utilizan contenido mejorado por IA.
Mientras tanto, el Congreso delibera sobre la regulación de la IA, y la Comisión Federal de Elecciones (FEC) contempla normas para el uso de la IA en la publicidad política.
En respuesta a la creciente preocupación por el poder engañoso de la IA, la La FEC ha propuesto una normativa sobre el uso de contenidos falsos profundos de IA en campañas políticas.
Presentada el 10 de agosto, esta decisión unánime de la FEC dio lugar a una consulta pública de 60 días con expertos, partes interesadas y el público en general.
A medida que avanzaban los debates en el seno de la FEC, Lisa Gilbert, Vicepresidenta de Public Citizen, subrayó la necesidad de revisar cómo las leyes en torno a la "tergiversación fraudulenta" podrían cruzarse con las falsificaciones profundas de IA.
A medida que nos acercamos a 2024, los nuevos modelos de IA de Meta, OpenAI y otros desarrolladores de IA están dotando a las personas de la capacidad de generar contenidos tremendamente realistas, por lo que este problema no será más fácil, sino todo lo contrario.