La Commission européenne a donné le coup d'envoi de son projet d'élaboration du tout premier code de pratique de l'IA à usage général, qui est étroitement lié à la loi sur l'IA récemment adoptée par l'UE.
Le code vise à établir des règles de base claires pour les modèles d'IA tels que ChatGPT et Google Gemini, notamment en ce qui concerne la transparence, les droits d'auteur et la gestion des risques posés par ces puissants systèmes.
Lors d'une récente séance plénière en ligne, près de 1 000 experts issus du monde universitaire, de l'industrie et de la société civile se sont réunis pour contribuer à définir la forme que prendra ce code.
Le processus est mené par un groupe de 13 experts internationaux, dont Yoshua Bengio, l'un des "parrains" de l'IA, qui dirige le groupe chargé d'étudier les risques techniques. M. Bengio a remporté le prix Turing, qui est en fait le prix Nobel de l'informatique, de sorte que ses opinions ont un poids mérité.
Les opinions pessimistes de Bengio sur la risque catastrophique que l'IA puissante fait peser sur l'humanité laissent entrevoir la direction que prendra l'équipe qu'il dirige.
Ces groupes de travail se réuniront régulièrement pour rédiger le code, dont la version finale est attendue pour avril 2025. Une fois finalisé, le code aura un impact important sur toute entreprise souhaitant déployer ses produits d'IA dans l'UE.
Les EU AI Act établit un cadre réglementaire strict pour les fournisseurs d'IA, mais le code de bonnes pratiques sera le guide pratique que les entreprises devront suivre. Le code traitera de questions telles que l'amélioration de la transparence des systèmes d'IA, le respect des droits d'auteur et la mise en place de mesures de gestion des risques liés à l'IA.
Les équipes chargées de rédiger le code devront trouver un équilibre entre la manière dont l'IA est développée de manière responsable et sûre, sans étouffer l'innovation, ce pour quoi l'UE est déjà critiquée. Les derniers modèles et fonctionnalités d'IA de Meta, Apple et OpenAI sont les suivants n'est pas pleinement déployée dans l'UE en raison des lois déjà strictes sur la protection de la vie privée (GDPR).
Les implications sont énormes. S'il est bien fait, ce code pourrait établir des normes mondiales en matière de sécurité et d'éthique de l'IA, donnant à l'UE un rôle de leader dans la manière dont l'IA est réglementée. En revanche, si le code est trop restrictif ou peu clair, il pourrait ralentir le développement de l'IA en Europe et pousser les innovateurs à s'installer ailleurs.
L'UE souhaiterait sans aucun doute que son code soit adopté au niveau mondial, mais cela est peu probable car la Chine et les États-Unis semblent plus favorables au développement qu'à l'aversion pour le risque. Les veto au projet de loi californien SB 1047 sur la sécurité des armes à feu est un bon exemple des différentes approches de la réglementation de l'IA.
Il est peu probable que l'AGI émerge de l'industrie technologique de l'UE, mais l'UE est également moins susceptible d'être le point zéro d'une catastrophe potentielle alimentée par l'IA.