OpenAI debate métodos para mitigar la desinformación política generada por IA

16 de enero de 2024

Fuga de datos de acceso a OpenAI

A medida que el mundo se aproxima a varias elecciones de alto nivel este año, un artículo del blog de OpenAI describe métodos para fortificar el proceso democrático contra el uso indebido de la tecnología de IA. 

OpenAI estrategia gira en torno a tres ejes: prevenir los abusos, aumentar la transparencia y mejorar el acceso a información precisa sobre el voto.

La empresa está trabajando activamente para frustrar las falsificaciones profundas perjudiciales, frenar las operaciones a escala de IA para influir en las opiniones de los votantes y tomar medidas drásticas contra los chatbots que se hacen pasar por candidatos políticos.

OpenAI también declaró que está perfeccionando activamente sus herramientas para mejorar la precisión de los hechos, reducir la parcialidad y rechazar solicitudes que podrían perjudicar la integridad de las elecciones, como rechazar solicitudes de generación de imágenes de personas reales, incluidos los candidatos.

En sus palabras: "Esperamos y pretendemos que la gente utilice nuestras herramientas de forma segura y responsable, y las elecciones no son una excepción". 

Esto incluye un riguroso red teaming de los nuevos sistemas, solicitando la opinión de usuarios y socios, y estableciendo medidas de seguridad. 

Aumentar la transparencia

Las falsificaciones profundas son el enemigo público número uno de la industria en estos momentos. 

Incidentes recientes como anuncios falsos profundos haciéndose pasar por el Primer Ministro del Reino Unido Rishi Sunak en Facebook, con un alcance estimado de 400.000 personas, y la posible injerencia en las elecciones eslovacas y europeas. Elecciones en Bangladesh han ilustrado el potencial de la IA para inmiscuirse en política. 

La IA ya se ha desplegado antes de las elecciones estadounidensesLos candidatos utilizan la tecnología para generar imágenes promocionales.

OpenAI se esfuerza por aumentar la transparencia. Planean implantar las credenciales digitales de la Coalition for Content Provenance and Authenticity para las imágenes generadas por DALL-E 3, que utilizan criptografía para codificar detalles sobre la procedencia de los contenidos. 

Además, se está desarrollando un nuevo clasificador de procedencia para detectar imágenes generadas por DALL-E. "Nuestras pruebas internas han arrojado resultados preliminares prometedores", afirma OpenAI, que tiene previsto poner esta herramienta a disposición de periodistas, plataformas e investigadores. 

OpenAI también está integrando ChatGPT con noticias en tiempo real a nivel mundial, con el objetivo de ofrecer a los usuarios fuentes transparentes para sus consultas. 

En Estados Unidos, OpenAI colabora con la Asociación Nacional de Secretarios de Estado (NASS) para dirigir a los usuarios de ChatGPT a CanIVote.org, donde encontrarán información fidedigna sobre el voto en Estados Unidos. 

Pretenden utilizar los conocimientos de esta asociación para orientar estrategias en otros países.

Las preguntas candentes siguen siendo: ¿es suficiente? ¿Pueden las empresas de IA abordar estas cuestiones de forma práctica, o el problema ha escapado ya a un control eficaz? 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales