La desinformación falsa y profunda de la IA golpea las elecciones en Bangladesh

15 de diciembre de 2023

Bangladesh AI

Mientras Bangladesh se prepara para sus elecciones nacionales a principios de enero, una amenaza cada vez más familiar asoma su fea cabeza: La desinformación generada por inteligencia artificial. 

Las elecciones bangladeshíes son una acalorada contienda entre la actual Primera Ministra, Sheikh Hasina, y la oposición, el Partido Nacionalista de Bangladesh. 

Numerosos informes llaman la atención sobre grupos progubernamentales que emplean estas herramientas para producir clips de noticias generados por IA y diseñados para influir en la opinión pública.

Por ejemplo, en uno de esos clips, un presentador de noticias bangladeshí creado por la IA critica a Estados Unidos, lo que se hace eco de la postura del gobierno actual. 

Otro ejemplo son los vídeos falsos destinados a desacreditar a figuras de la oposición, por ejemplo mostrándolas adoptando posturas impopulares en asuntos delicados como el apoyo a Gaza, un tema de debate de enorme importancia en este país de 175 millones de habitantes y mayoría musulmana.

La desinformación y la desinformación profundas y falsas se han convertido sin duda en los riesgos más inmediatos y acuciantes de la inteligencia artificial. Esta misma semana, el Presidente ruso Vladimir Putin se enfrentó a una copia de sí mismo en una rueda de prensa: un estudiante lo utilizó para hablar de las falsificaciones profundas en una sesión de preguntas y respuestas televisada en directo. 

Las elecciones eslovacas sufrieron desinformación en las redes sociales en las últimas 48 horas antes de la hora de publicación, cuando los medios de comunicación tienen prohibido hablar de noticias políticas. 

Las principales empresas tecnológicas, como Google y Meta, están empezando a aplicar políticas para los anuncios políticos, incluida la obligación de revelar las alteraciones digitales. Sin embargo, hasta ahora estas medidas parecen débiles, especialmente en regiones que no atraen tanto la atención de estas corporaciones.

La regulación de la IA, en general, es principalmente occidental, y los países en desarrollo carecen en su mayoría de regulación y derechos digitales, lo que deja a las personas y sus datos expuestos a la explotación. 

¿Cómo funciona la tecnología deep fake?

En esencia, "deep fake" es un término no técnico que describe cualquier falsificación extremadamente eficaz, creada normalmente con herramientas de IA generativa. 

Un ejemplo ilustrativo es HeyGen, un generador de vídeos de IA con sede en Los Ángeles. Por una módica cuota de suscripción, este servicio permite a los usuarios crear clips con avatares de IA. 

Uno de esos vídeos, en el que se denunciaba la injerencia de Estados Unidos en las elecciones de Bangladesh, circuló por las redes sociales. 

Como estos avatares de IA son tan reales, a menudo se cuelan a través de los filtros de las redes sociales, y el público en general puede no reaccionar inmediatamente. Algunas imágenes falsas asociadas a la Conflicto Israel-Palestina llegó a millones de personas antes de ser ampliamente desvelada como falsa, por ejemplo.

La ausencia de herramientas sólidas de detección de IA para contenidos no ingleses agrava el problema.

A medida que la tecnología de IA avanza y se hace más accesible, es imperativo que los organismos reguladores y las plataformas digitales desarrollen y apliquen medidas eficaces para contrarrestar la desinformación.

Hasta ahora, está resultando una tarea intratable. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales