L'UE est parvenue à un accord historique sur la loi sur l'IA, établissant un cadre juridique complet pour l'utilisation et le développement de cette technologie.
Cette loi définit différentes catégories pour les systèmes d'IA : risque inacceptable, risque élevé, risque limité et risque minimal ou nul, avec différents niveaux d'examen réglementaire pour chacune d'entre elles.
L'IA existe depuis des décennies, mais il ne faut pas la confondre avec l'IA générative - comme ChatGPT d'OpenAI, LLaMA de Meta et Bard de Google - qui n'existe que depuis un an environ.
L'UE a lancé l'idée de la loi sur l'IA en 2019, bien avant que l'IA générative n'entre dans les mœurs. Mais même au cours des derniers mois, nous avons vu des modèles de langage comme le GPT-3 évoluer vers le GPT-4V, un modèle multimodal qui traite le texte et les images.
En décembre 2023, l'UE a confirmé ses révisions de la loi suite à l'explosion de l'IA générative, qui est désormais l'objectif principal de l'industrie.
Pendant ce temps, les entreprises d'IA générative obtiennent des milliards de dollars de financement, tant aux États-Unis qu'en Europe, en Asie et dans le Pacifique. Les gouvernements ont vu la valeur qu'elle peut créer pour leurs économies, c'est pourquoi, dans l'ensemble, l'approche de la réglementation a consisté à "attendre et voir" plutôt qu'à prendre des mesures strictes.
Évaluer la réaction à la loi sur l'IA
Les réactions à la loi sur l'IA ont été mitigées, les entreprises technologiques et les représentants des gouvernements français, allemand et italien estimant que la loi sur l'IA pourrait être trop contraignante pour l'industrie.
En juin, plus de 150 dirigeants de grandes entreprises comme Renault, Heineken, Airbus et Siemens se sont unis dans une lettre ouverte pour exprimer leurs inquiétudes quant à l'impact du règlement sur les entreprises.
Jeannette zu Fürstenberg, associée fondatrice de La Famiglia VC et l'une des signataires, a déclaré que la loi sur l'IA pourrait avoir des "implications catastrophiques pour la compétitivité européenne".
L'une des questions centrales soulevées dans la lettre est la réglementation stricte des systèmes d'IA générative tels que ChatGPT, Bard et leurs équivalents européens issus de start-ups comme Mistral en France et Aleph Alpha en Allemagne.
Aleph Alpha, qui a l'intention d'être le pionnier des "systèmes d'IA souverains européens", a récemment a levé $500m dans le cadre d'un financement de série B dans le cadre de l'un des plus importants cycles de financement en Europe. Mistral vaut $2 milliards d'euros bien qu'elle n'ait été fondée qu'en mai.
Bien sûr, le désaccord des entreprises à l'égard de la réglementation de l'IA n'est pas une surprise, mais l'essentiel est que les gens s'inquiètent de la technologie. La responsabilité première de l'UE, comme celle de tout gouvernement, incombe d'abord à ses citoyens, et non à ses entreprises.
Certains sondages indiquent que que le public préférerait que le développement de l'IA se fasse à un rythme plus lent et qu'il se méfie généralement de la technologie et de ses effets. Les principales institutions non commerciales, telles que la Institut Ada LovelaceEn général, ils estiment que la loi soutient et protège les droits des citoyens.
Les réactions à l'acte sur X, source utile de l'opinion publique, bien que peu fiable, sont toutefois mitigées. Certains commentateurs réagissant directement aux messages des fonctionnaires de l'UE ont affirmé que l'UE était en train d'empêtrer son industrie technologique dans un réseau qu'elle avait elle-même créé.
Marché conclu !#AIAct pic.twitter.com/UwNoqmEHt5
- Thierry Breton (@ThierryBreton) 8 décembre 2023
Commentant le statut de Breton, une personne qui ne considère pas l'IA comme risquée a déclaré : "Réglementons enfin l'algèbre et la géométrie - ce sont des TECHNOLOGIES À HAUT RISQUE".
En effet, la loi réglemente des utilisations apparemment inoffensives de l'IA, telles que son utilisation dans des tâches mathématiques. Une organisation française appelé France Digitalereprésentant des startups technologiques en Europe, a déclaré : "Nous avons appelé à ne pas réglementer la technologie en tant que telle, mais à réglementer les utilisations de la technologie.
D'autres parlent de l'impact de la loi sur l'innovation : "Étouffer l'innovation par la réglementation, de sorte que l'Europe ne disposera jamais d'une plateforme technologique de premier plan", déclare l'un d'eux, résumant la crainte que l'approche réglementaire de l'UE n'entrave sa capacité à être compétitive sur la scène technologique mondiale.
vous détestez la technologie et la croissance économique ... personne ne vous prend au sérieux pic.twitter.com/nAIVInDKse
- Adam Singer (@AdamSinger) 9 décembre 2023
La question de la légitimité démocratique de ces réglementations radicales est soulevée par un autre utilisateur : "Qui vous a démocratiquement demandé cette réglementation ? Arrêtez de prétendre faire des choses pour 'protéger' les gens". Un autre a déclaré : "Vous venez d'envoyer la moitié des entreprises européennes d'IA/ML au Royaume-Uni et en Amérique".
La loi sur l'IA est la lettre de suicide que l'Europe s'adresse à elle-même.
- Pedro Domingos (@pmddomingos) 9 décembre 2023
Ces réponses sont-elles hyperboliques ou la loi sur l'IA met-elle effectivement fin à la compétitivité de l'Europe en matière d'IA ?
L'UE considère qu'une réglementation précoce de l'IA est nécessaire à la fois pour la protection et l'innovation
Protéger les personnes de l'IA, et une industrie bien équilibrée et éthique suivra - telle est la position générale de la loi.
Les vrais risques de l'IA, cependant, sont polarisants. Au début de l'année, la montée en puissance de ChatGPT a été accueillie par une avalanche de craintes et d'inquiétudes concernant l'emprise de l'IA, avec des déclarations d'instituts de recherche sur l'IA tels que le Center for AI Safety (CAIS) comparant l'IA à la technologie de l'information et de la communication (TIC). les risques de la technologie aux pandémies et à la guerre nucléaire.
Le comportement de l'IA et ses connotations dans la culture populaire et la littérature ont préparé le terrain pour que ce foyer de paranoïa se développe dans l'esprit des gens. De Terminator aux machines de Matrix, l'IA est généralement présentée comme une force combative qui finit par se retourner contre ses créateurs une fois qu'elle sait qu'elle va réussir et qu'elle trouve un motif pour le faire.
Toutefois, il ne s'agit pas de rejeter les risques de l'IA comme une simple facette de la culture populaire et appartenant au domaine de la fiction. Des voix crédibles au sein de l'industrie et de la science en général sont réellement préoccupées par cette technologie.
Deux des trois "parrains de l'IA" qui ont ouvert la voie aux réseaux neuronaux et à l'apprentissage profond - Yoshio Bengio et Geoffrey Hinton - sont préoccupés par l'IA. L'autre, Yann LeCun, prend la position opposéeLa Commission européenne a publié un rapport sur le développement de l'IA, affirmant que le développement de l'IA est sûr et que la technologie n'aboutira pas à une superintelligence destructrice.
Lorsque même les personnes les plus qualifiées pour juger l'IA ne parviennent pas à se mettre d'accord, il est très difficile pour les législateurs sans expérience d'agir. La réglementation de l'IA sera probablement erronée dans certaines de ses définitions et positions, étant donné que les risques liés à l'IA ne sont pas aussi clairs que ceux liés à l'énergie nucléaire.
La loi européenne sur l'IA met-elle fin à la concurrence européenne dans ce secteur ?
La comparaison de l'approche de l'UE vis-à-vis de l'industrie de l'IA avec celle des États-Unis et de l'Asie révèle des philosophies et des pratiques réglementaires différentes.
Les États-Unis ont progressé dans le domaine de l'IA grâce à des investissements importants dans la recherche et le développement de l'IA, plusieurs départements fédéraux et des organisations telles que la National Science Foundation et le Department of Energy jouant un rôle clé. Récemment, des États ont également introduit une législation pour lutter contre les dommages.
Décret de Biden a accru la pression sur les agences fédérales pour qu'elles consultent et légifèrent sur la technologie, introduisant probablement un patchwork de lois spécifiques à un domaine, par opposition au style de réglementation internationale à grande échelle de l'UE.
La Chine, dont l'industrie technologique n'est surpassée que par celle des États-Unis, a largement axé la réglementation sur la défense des valeurs socialistes de son gouvernement plutôt que sur la protection des personnes contre les risques.
Le Royaume-Uni, une étude de cas intéressante pour la réglementation de l'UE après le Brexit, a opté pour une approche de laissez-faire similaire à celle des États-Unis. Jusqu'à présent, cela n'a pas permis de créer une entreprise d'IA au même titre que la société française Mistral ou la société allemande Aleph Alpha, mais cela pourrait changer.
Comparé aux puissances que sont les États-Unis et la Chine, l'écosystème technologique de l'UE présente des défis évidents et des performances insuffisantes, notamment en ce qui concerne la capitalisation boursière et les investissements dans la recherche et le développement.
Un analyse de McKinsey révèle que les grandes entreprises européennes, y compris celles des industries créatrices de technologie comme les TIC et les produits pharmaceutiques, ont été 20% moins rentables, ont augmenté leurs revenus 40% plus lentement, ont investi 8% de moins et ont dépensé 40% de moins en R&D par rapport à leurs homologues de l'échantillon de l'étude entre 2014 et 2019.
Cet écart est particulièrement évident dans les industries créatrices de technologie. Par exemple, dans le domaine de l'informatique quantique, 50% des principales entreprises technologiques qui investissent dans cette technologie se trouvent aux États-Unis, 40% en Chine et aucune dans l'UE. De même, les États-Unis ont obtenu 40% de financement externe dans le domaine de l'IA entre 2015 et 2020, tandis que l'Europe n'en a obtenu que 12%.
Cependant, il est également important de noter que l'écosystème technologique européen a montré des signes de croissance robuste et de résilience, en particulier en ce qui concerne l'investissement en capital-risque.
En 2021, l'Europe a connu une augmentation significative des investissements en capital-risqueLe marché de l'énergie a connu une forte croissance, avec un taux de croissance de 143% d'une année sur l'autre, dépassant à la fois l'Amérique du Nord et l'Asie. Cette augmentation est due à l'intérêt majeur de la communauté mondiale des investisseurs en capital-risque et à l'augmentation des financements de dernière minute. Les startups européennes dans des secteurs tels que la fintech et le SaaS ont largement bénéficié de l'augmentation des investissements.
Malgré ces tendances positives, l'influence globale de l'industrie technologique européenne reste relativement limitée par rapport aux États-Unis et à l'Asie. Tes États-Unis ont cinq entreprises technologiques évaluées à plus de $1 trilliontandis que les deux plus grandes entreprises chinoises combinées valent plus que la valeur totale de toutes les entreprises technologiques publiques européennes.
La plus grande entreprise technologique publique d'Europe était alors évaluée à $163 milliards, ce qui ne ferait même pas partie du top 10 aux États-Unis.
Le fait est qu'il est très facile pour les observateurs de critiquer la réglementation de l'IA comme entravant l'industrie technologique de l'UE, alors que l'UE n'a jamais été en mesure de rivaliser avec les États-Unis. À bien des égards, il s'agit d'une comparaison inutile, car personne ne peut rivaliser avec les États-Unis en termes de PIB. Le PIB n'est d'ailleurs pas la seule mesure dont nous devrions nous préoccuper lorsque nous considérons la loi sur l'IA comme la "fin de la compétitivité de l'UE".
Un article dans Le Monde a mis en évidence la faiblesse du PIB par habitant de l'UE, des pays comme la France, l'Allemagne et l'Italie n'étant comparables qu'à certains des États américains les plus "pauvres". L'Italie se situe juste devant le Mississippi, le plus pauvre des 50 États américains, tandis que la France se situe entre l'Idaho et l'Arkansas, respectivement 48e et 49e. L'Allemagne ne sauve pas la face : Elle se situe entre l'Oklahoma et le Maine (38e et 39e)".
Cependant, le PIB par habitant n'est certainement pas tout. L'espérance de vie, en particulier, est un sujet controversé aux États-UnisLes statistiques montrent généralement une forte diminution de l'espérance de vie par rapport aux autres pays développés. En 2010, les Américains et les Américaines devaient vivre trois ans de moins que la moyenne de l'Union européenne et quatre ou cinq ans de moins que la moyenne de certains pays scandinaves, de l'Allemagne, de la France et de l'Italie.
En fin de compte, si l'on fait une comparaison économique, l'UE ne pourra jamais rivaliser avec les États-Unis, mais le lien entre les performances économiques et le bien-être des populations n'est pas linéaire.
Suggérer que la loi sur l'IA va détériorer la vie des gens en érodant la compétitivité de l'industrie de l'IA ne tient pas compte de ses autres impacts.
Par exemple, la loi introduit des règles importantes en matière de droits d'auteur, ce qui devrait freiner l'utilisation frivole de la propriété intellectuelle par les entreprises d'IA. Elle empêche également certaines utilisations de la reconnaissance faciale, de l'évaluation sociale et de l'analyse comportementale par l'IA.
L'érosion de la compétitivité est peut-être plus immédiatement tangible que les avantages de la réglementation, qui restent pour l'instant hypothétiques et contestables.
On pourrait faire valoir que les avantages potentiels de la loi sur l'IA pour le bien-être des personnes au détriment de la croissance économique constituent un compromis judicieux.
Un exercice d'équilibre
Malgré les critiques, l'UE fixe souvent des normes réglementaires, comme le montre le règlement général sur la protection des données (RGPD).
Bien que le GDPR ait été critiqué parce qu'il favorise les entreprises technologiques établies au détriment des startups et qu'il ne stimule pas directement le secteur technologique de l'UE, il est devenu une norme internationale de facto pour la protection des données, influençant les pratiques réglementaires à l'échelle mondiale.
Si l'UE n'est peut-être pas le régulateur idéal pour l'IA, elle est actuellement la plus proactive et la plus systématique dans ce domaine.
Aux États-Unis, la réglementation fédérale en matière d'IA est limitée, l'administration Biden se concentrant davantage sur des orientations que sur des lois contraignantes. Par conséquent, les entreprises technologiques trouvent souvent l'approche de l'UE plus prévisible malgré sa bureaucratie.
Les efforts de l'UE serviront probablement de point de référence pour les autres gouvernements qui élaborent des réglementations en matière d'IA.
Compte tenu du potentiel de transformation de l'IA, des règles systématiques sont cruciales. - Cela ne signifie pas pour autant que l'innovation et le développement de logiciels libres doivent être soumis à des contraintes. - et l'UE a tenté pour la première fois de s'atteler à cette tâche délicate et difficile.
C'est un effort courageux et, qui sait, il pourrait protéger les citoyens de l'UE des pires conséquences de l'IA à venir. Ou alors, l'UE pourrait sacrifier son industrie de l'IA pour un résultat pratiquement nul. Pour l'instant, tout est une question d'opinion.