La loi sur l'intelligence artificielle (IA) de l'Union européenne est officiellement entrée en vigueur le 1er août 2024 - un moment décisif pour la réglementation mondiale en matière d'IA.
Cette législation d'envergure classe les systèmes d'IA en fonction de leur niveau de risque, imposant différents degrés de surveillance qui varient en fonction de la catégorie de risque.
La loi interdira complètement certaines formes d'IA présentant un "risque inacceptable", comme celles qui sont conçues pour manipuler le comportement des personnes.
Alors que la Agir a désormais force de loi dans les 27 États membres de l'UE, la grande majorité de ses dispositions ne prend pas effet immédiatement.
Cette date marque plutôt le début d'une phase de préparation pour les régulateurs et les entreprises.
Quoi qu'il en soit, la machine est en marche et la loi va certainement façonner l'avenir du développement, du déploiement et de la gestion des technologies de l'IA, tant dans l'UE qu'à l'échelle internationale.
Le calendrier de mise en œuvre est le suivant :
- Février 2025: L'interdiction des pratiques d'IA présentant un "risque inacceptable" entre en vigueur. Il s'agit notamment des systèmes de notation sociale, de l'analyse non ciblée d'images faciales et de l'utilisation de la technologie de reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement.
- Août 2025: Les exigences relatives aux modèles d'IA à usage général entrent en vigueur. Cette catégorie, qui comprend les grands modèles de langage comme le GPT, devra se conformer à des règles en matière de transparence, de sécurité et d'atténuation des risques.
- Août 2026: La réglementation des systèmes d'IA à haut risque dans les secteurs critiques tels que les soins de santé, l'éducation et l'emploi devient obligatoire.
La Commission européenne se prépare à faire appliquer ces nouvelles règles.
Thomas Regnier, porte-parole de la Commission, a expliqué qu'une soixantaine d'employés actuels seront réorientés vers le nouvel office AI et que 80 autres employés externes seront recrutés au cours de l'année prochaine.
En outre, chaque État membre de l'UE est tenu de mettre en place des autorités nationales compétentes chargées de superviser et d'appliquer la loi d'ici août 2025.
La mise en conformité ne se fera pas du jour au lendemain. Alors que toute grande entreprise d'IA se prépare à la loi depuis un certain temps, les experts estiment que la mise en œuvre des contrôles et des pratiques peut prendre six mois ou plus.
Les enjeux sont importants pour les entreprises prises dans le collimateur de la loi. Les entreprises qui l'enfreignent s'exposent à des amendes pouvant aller jusqu'à 35 millions d'euros ou 7% de leur chiffre d'affaires annuel mondial, le montant le plus élevé étant retenu.
Ce chiffre est supérieur à celui du GPDR, et l'UE n'a pas tendance à proférer des menaces en l'air, à collecter des fonds et à les distribuer à d'autres pays. plus de 4 milliards d'euros d'amendes au titre du GDPR à ce jour.
Impacts internationaux
Première réglementation globale en matière d'IA, la loi européenne sur l'IA établira de nouvelles normes à l'échelle mondiale.
Des acteurs majeurs comme Microsoft, Google, Amazon, Apple et Meta seront parmi les plus visés par les nouvelles réglementations.
Comme le souligne Charlie Thompson d'Appian a déclaré à CNBCLa loi sur l'IA s'appliquera probablement à toute organisation ayant des activités ou un impact dans l'UE, quel que soit le lieu de son siège social.
Certaines entreprises américaines prennent des mesures préventives. Meta, par exemple, a restreint la disponibilité de son Modèle d'IA LLaMa 400B en Europeen invoquant l'incertitude réglementaire. OpenAI a menacé de limiter les sorties de produits en Europe en 2023, mais a rapidement fait marche arrière.
Pour se conformer à la loi, les entreprises d'IA pourraient être amenées à réviser les ensembles de données de formation, à mettre en place une surveillance humaine plus solide et à fournir aux autorités de l'UE une documentation détaillée.
Cela va à l'encontre du mode de fonctionnement de l'industrie de l'IA. Les modèles d'IA propriétaires d'OpenAI, de Google, etc. sont secrètes et très bien gardées.
Les données d'entraînement sont extrêmement précieuses et leur divulgation risquerait d'exposer de vastes quantités de matériel protégé par le droit d'auteur.
Des questions difficiles se posent si l'on veut que le développement de l'IA progresse au même rythme que jusqu'à présent.
Certaines entreprises sont contraintes d'agir plus tôt que d'autres
La Commission européenne estime qu'environ 85% des entreprises d'IA présentent un "risque minimal" et nécessitent peu de surveillance, mais les règles de la loi ont néanmoins une incidence sur les activités des entreprises des catégories supérieures.
Les ressources humaines et l'emploi sont un domaine classé dans la catégorie "à haut risque" de la loi.
Les principaux fournisseurs de logiciels d'entreprise tels que SAP, Oracle, IBM, Workday et ServiceNow ont tous lancé des applications RH améliorées par l'IA qui intègrent l'IA dans la sélection et la gestion des candidats.
Jesper Schleimann, responsable de l'IA chez SAP pour la région EMEA, a déclaré à . Le registre que l'entreprise a mis en place des processus solides pour garantir le respect des nouvelles règles.
De même, Workday a mis en place un programme d'IA responsable dirigé par des cadres supérieurs afin de s'aligner sur les exigences de la loi.
Les systèmes d'intelligence artificielle utilisés dans les infrastructures critiques et les services publics et privés essentiels constituent une autre catégorie visée par le cosh.
Cela englobe un large éventail d'applications, de l'IA utilisée dans les réseaux énergétiques et les systèmes de transport à celle employée dans les soins de santé et les services financiers.
Les entreprises opérant dans ces secteurs devront démontrer que leurs systèmes d'IA répondent à des normes strictes de sécurité et de fiabilité. Elles devront également procéder à des évaluations approfondies des risques, mettre en œuvre des systèmes de surveillance robustes et veiller à ce que leurs modèles d'IA soient explicables et transparents.
Si la loi sur l'IA interdit purement et simplement certaines utilisations de l'identification et de la surveillance biométriques, elle ne fait que des concessions limitées dans le domaine de l'application de la loi et de la sécurité nationale.
Il s'agit d'un domaine fertile pour le développement de l'IA, avec des entreprises comme Palantir qui construisent des systèmes d'intelligence artificielle. systèmes avancés de prévision de la criminalité susceptibles de contredire l'acte.
Le Royaume-Uni a déjà fait de nombreuses expériences avec Surveillance alimentée par l'IA. Bien que le Royaume-Uni ne fasse pas partie de l'UE, de nombreuses entreprises d'IA basées dans ce pays devront très certainement se conformer à la loi.
L'incertitude nous guette
L'accueil réservé à cette loi a été mitigé. De nombreuses entreprises du secteur technologique de l'UE ont exprimé leur inquiétude quant à son impact sur l'innovation et la concurrence.
En juin, plus de 150 cadres de grandes entreprises telles que Renault, Heineken, Airbus et Siemens se sont unies dans une lettre ouverte pour exprimer leurs inquiétudes quant à l'impact du règlement sur les entreprises.
Jeannette zu Fürstenberg, l'une des signataires et partenaire fondatrice du fonds de capital-risque La Famiglia VC, basé à Berlin, a déclaré que la loi sur l'IA pourrait avoir des "implications catastrophiques pour la compétitivité européenne".
France Digitale, qui représente les startups technologiques en Europe, a critiqué les règles et les définitions de la loi : "Nous demandions de ne pas réglementer la technologie en tant que telle, mais de réglementer les usages de la technologie. La solution adoptée par l'Europe aujourd'hui revient à réglementer les mathématiques, ce qui n'a pas beaucoup de sens".
Toutefois, les partisans de la loi affirment qu'elle offre également des possibilités d'innovation en matière de développement responsable de l'IA. La position de l'UE est claire : protégez les personnes contre l'IA, et une industrie plus équilibrée et plus éthique suivra.
Regnier a déclaré à Euro NewsIl a ajouté : "Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai.
"La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire. Nous voulons qu'elles opèrent dans l'UE, mais nous voulons protéger nos citoyens et nos entreprises.
Si le scepticisme est de mise, l'optimisme est de mise. SL'établissement de limites à la reconnaissance faciale, à l'évaluation sociale et à l'analyse comportementale par l'IA vise à protéger les libertés civiles des citoyens de l'UE, qui ont longtemps eu la priorité sur la technologie dans les réglementations de l'UE.
Au niveau international, la loi peut contribuer à renforcer la confiance du public dans les technologies d'IA, à apaiser les craintes et à établir des normes plus claires pour le développement et l'utilisation de l'IA.
L'instauration d'une confiance à long terme dans l'IA est essentielle pour que l'industrie continue de progresser. La loi pourrait donc avoir des retombées commerciales, mais il faudra de la patience pour qu'elle porte ses fruits.