La Chine a agi plus rapidement que n'importe quel gouvernement occidental en ce qui concerne la réglementation de l'IA, mais les récentes augmentations de la fraude induite par l'IA suggèrent que la réglementation seule est insuffisante sans de solides stratégies d'application.
Réglementation chinoise sur les Administration de Deep Synthesis of Internet Information Services est entrée en vigueur le 10 janvier 2023, interdisant de fait l'utilisation de l'IA générative pour se faire passer pour quelqu'un d'autre ou pour tromper.
Il s'agit notamment de fausses informations générées à l'aide de modèles linguistiques tels que ChatGPT et de fausses informations approfondies générées à l'aide d'IA de conversion de texte en image telles que Voyage à mi-parcours et DALL-E.
ChatGPT d'OpenAI et d'autres IA populaires ne sont pas officiellement disponibles en Chine, mais de nombreuses personnes accèdent à ces outils via des réseaux privés virtuels (VPN).
Le gouvernement chinois s'est empressé de réglementer l'IA afin de prévenir les "menaces existentielles" pour son régime socialiste et de réduire l'impact de la fraude et de la cybercriminalité.
Toutefois, des sources chinoises ont indiqué que La fraude à l'IA est monnaie courante dans le paysLa Commission européenne a également lancé une campagne de sensibilisation à l'égard des personnes qui produisent du faux contenu, ce qui a donné lieu à des mesures de répression.
Par exemple, un homme a reçu un appel d'un escroc sur l'application de messagerie chinoise WeChat. Les escrocs ont reproduit la voix et le visage de l'ami de l'homme et l'ont persuadé de transférer une somme équivalente à $600 000 sur un autre compte bancaire.
L'homme était convaincu jusqu'à ce qu'il appelle son ami pour confirmer le transfert. "Nous avons eu un chat vidéo et j'ai reconnu le visage et la voix dans la vidéo ; c'est pourquoi j'ai baissé ma garde", a-t-il déclaré aux autorités.
En fait, il y a eu tellement d'incidents de fraude à l'IA que le hashtag #AIFraudIsEruptingAcrossChina a commencé à apparaître sur la plateforme de médias sociaux chinoise Weibo. Toutefois, ce hashtag a disparu depuis, ce qui laisse penser que les autorités tentent de censurer la discussion.
La réglementation chinoise en matière d'IA est un guide utile pour les autres pays
L'action rapide de la Chine en matière de réglementation est en partie attribuée à l'approche du gouvernement en matière de censure. À l'inverse, lLes législateurs de l'Union européenne et des États-Unis s'efforcent de distinguer les risques de contrefaçons profondes de l'"usage loyal" pour la liberté d'expression et la satire.
Les contrefaçons profondes vont de la représentation Elon Musk en robe indienne pour générer photos des explosions au Pentagone - et il est exceptionnellement difficile de distinguer chaque cas en droit.
Une photo d'Elon Musk vêtu d'un costume indien, prise à mi-parcours, est en train de devenir virale en Inde. 🇮🇳 pic.twitter.com/LD1KuIAHET
- DogeDesigner (@cb_doge) 3 juin 2023
Malgré les différences sociopolitiques, les analystes estiment que nous devrions suivre de près l'impact des réglementations chinoises en matière d'IA.
Par exemple, Graham Webster, chercheur à l'université de Stanford qui suit l'évolution de la politique numérique de la Chine, a déclaré à l'émission Wall Street JournalLa Chine apprend avec le reste du monde l'impact potentiel de ces mesures, mais elle avance plus rapidement dans l'adoption de règles obligatoires et dans leur mise en œuvre" et "Les gens du monde entier devraient observer ce qui se passe".
L'humour des deep fakes satiriques pourrait s'estomper si la fraude liée aux deep fakes augmente en fréquence et en gravité, ce qui semble inévitable. La réglementation de l'IA aux États-Unis, dans l'Union européenne et dans d'autres juridictions est encore en cours d'élaboration, mais il existe des options à court terme, telles qu'un "pacte de l'IA" volontaire ou des "mesures palliatives" pour limiter les risques dès à présent.
Le problème actuel de la Chine en matière de fraude liée à l'IA indique que la simple présence d'une législation peut ne pas suffire à endiguer le risque de fraude liée à l'IA.