China ha actuado con más rapidez que cualquier gobierno occidental en lo que respecta a la regulación de la IA, pero los recientes aumentos del fraude impulsado por la IA sugieren que la regulación por sí sola es insuficiente sin estrategias de aplicación sólidas.
Normativa china sobre la Administración de la Síntesis Profunda de los Servicios de Información de Internet entró en vigor el 10 de enero de 2023, prohibiendo de hecho el uso de IA generativa para suplantar o engañar.
Esto incluye información falsa generada con modelos lingüísticos como ChatGPT y falsificaciones profundas generadas con IA de texto a imagen como A mitad de viaje y DALL-E.
ChatGPT de OpenAI y otras IA populares no están disponibles oficialmente en China, pero muchos acceden a las herramientas a través de redes privadas virtuales (VPN).
El gobierno chino se apresuró a regular la IA para prevenir "amenazas existenciales" a su régimen socialista y reducir el impacto del fraude y la ciberdelincuencia.
Sin embargo, fuentes chinas han señalado que El fraude de la IA está muy extendido en el paíslo que dio lugar a una ofensiva contra las personas que generaban contenidos falsos.
Por ejemplo, un hombre recibió una llamada de un estafador a través de la aplicación de mensajería china WeChat. Los estafadores imitaron la voz y la cara de un amigo y le convencieron para que transfiriera el equivalente a 1600.000 euros a otra cuenta bancaria.
El hombre estaba convencido hasta que llamó a su amigo para confirmar la transferencia. "Tuvimos un videochat y reconocí la cara y la voz en el vídeo; por eso bajé la guardia", dijo a las autoridades.
De hecho, se han producido tantos incidentes de fraude de IA que el hashtag #AIFraudIsEruptingAcrossChina empezó a aparecer en la plataforma china de redes sociales Weibo. Sin embargo, el hashtag ha desaparecido desde entonces, lo que hace pensar que las autoridades intentan censurar el debate.
La normativa china sobre IA es una guía útil para otros países
La rápida actuación de China en materia de regulación se atribuye en parte al planteamiento gubernamental de la censura. Por el contrario, los legisladores de la UE y Estados Unidos se esfuerzan por delimitar los riesgos de las falsificaciones profundas del "uso justo" para la libertad de expresión y la sátira.
Las falsificaciones profundas van desde la representación de Elon Musk vestido de indio para generar fotos de explosiones en el Pentágono - y separar jurídicamente cada caso es excepcionalmente difícil.
Un arte a medio camino de Elon Musk en un atuendo indio se está volviendo viral en la India. 🇮🇳 pic.twitter.com/LD1KuIAHET
- DogeDesigner (@cb_doge) 3 de junio de 2023
A pesar de las diferencias sociopolíticas, los analistas sostienen que debemos seguir de cerca el impacto de la normativa china sobre IA.
Por ejemplo, Graham Webster, investigador de la Universidad de Stanford que sigue la evolución de la política digital china, declaró al Wall Street JournalChina está aprendiendo con el mundo sobre las posibles repercusiones de estas cosas, pero está avanzando más rápidamente con normas obligatorias y su aplicación" y "La gente de todo el mundo debería observar lo que ocurre".
El humor de las falsificaciones satíricas podría agotarse si los fraudes relacionados con falsificaciones aumentan en frecuencia y gravedad, lo que parece inevitable. La regulación de la IA en EE.UU., la UE y otras jurisdicciones está aún en fase de tramitación, pero hay opciones a corto plazo sobre la mesa, como un "pacto de IA" voluntario o "stop gaps" para frenar el riesgo ahora.
El problema actual de China con el fraude relacionado con la IA indica que la mera presencia de legislación puede no ser suficiente para frenar el riesgo de fraude relacionado con la IA.