Les projets de loi californiens pourraient être désastreux pour le développement de l'IA

31 juillet 2024

  • Deux projets de loi sur l'IA imposeront des exigences élevées aux fabricants de modèles d'IA
  • La loi SB 1047 rendra les développeurs d'IA légalement responsables si d'autres personnes utilisent leurs modèles de manière dangereuse.
  • L'AB 3211 impose le filigrane et l'étiquetage des contenus synthétiques et interdit les modèles qui ne le font pas.

La Californie étudie plusieurs projets de loi visant à réglementer l'IA. Les lois SB 1047 et AB 3211 devraient avoir un impact considérable sur les développeurs d'IA si elles sont adoptées le mois prochain.

Les débats sur les risques liés à l'IA et sur la manière de les atténuer se poursuivent et, en l'absence de lois fédérales américaines, la Californie a élaboré des lois qui pourraient constituer un précédent pour d'autres États.

SB 1047 et AB 3211 ont tous deux été adoptés par l'Assemblée de l'État de Californie et pourraient devenir des lois le mois prochain lorsque le Sénat les votera.

Les partisans de ces projets de loi affirment qu'ils fournissent des protections attendues depuis longtemps contre les risques liés aux modèles d'IA dangereux et aux contenus synthétiques générés par l'IA. Les détracteurs de ces projets de loi estiment que les exigences qu'ils prévoient tueront le développement de l'IA dans l'État, car elles sont inapplicables.

Voici un bref aperçu des deux projets de loi et des raisons pour lesquelles les développeurs d'IA californiens pourraient envisager de s'implanter dans d'autres États.

SB 1047

Les SB 1047 "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act" (loi sur l'innovation sûre et sécurisée pour les modèles d'intelligence artificielle de frontière) s'appliquera aux fabricants de modèles dont la formation coûte $100 millions ou plus.

Ces développeurs seront tenus de mettre en œuvre des contrôles de sécurité supplémentaires et seront responsables si leurs modèles sont utilisés pour causer des "dommages critiques".

Le projet de loi définit les "dommages critiques" comme "la création ou l'utilisation d'une arme chimique, biologique, radiologique ou nucléaire d'une manière qui entraîne des pertes massives... ou au moins cinq cents millions de dollars ($500 000 000) de dommages résultant de cyber-attaques sur des infrastructures critiques".

Cela peut sembler une bonne idée pour s'assurer que les créateurs de modèles d'IA avancés prennent suffisamment de précautions, mais est-ce pratique ?

Un constructeur automobile doit être responsable si son véhicule n'est pas sûr, mais doit-il être responsable si une personne percute intentionnellement quelqu'un qui utilise son véhicule ?

Yann LeCun, directeur scientifique de Meta en charge de l'IA, n'est pas de cet avis. LeCun critique le projet de loi et déclare : "Les régulateurs devraient réglementer les applications, pas la technologie... Rendre les développeurs de technologie responsables des mauvaises utilisations des produits construits à partir de leur technologie ne fera qu'arrêter le développement de la technologie."

Le projet de loi rendra également les créateurs de modèles responsables si quelqu'un crée un dérivé de leur modèle et cause un préjudice. Cette exigence signerait l'arrêt de mort des modèles à poids libre qui, ironiquement, le ministère du commerce a approuvé.

La loi SB 1047 a été adoptée par le Sénat de Californie en mai, par 32 voix contre 1. Elle entrera en vigueur si le Sénat l'adopte au mois d'août.

AB 3211

Les Loi californienne sur les normes de provenance, d'authenticité et de filigrane (California Provenance, Authenticity, and Watermarking Standards Act) (AB 3211) vise à garantir la transparence et la responsabilité dans la création et la distribution de contenus synthétiques.

Si quelque chose a été généré par l'IA, le projet de loi stipule qu'il doit être étiqueté ou comporter un filigrane numérique pour que cela soit clair.

Le filigrane doit être "indélébile au maximum... conçu pour être aussi difficile à enlever que possible". L'industrie a adopté la norme Norme de provenance C2PAmais il est facile de supprimer les métadonnées du contenu.

Le projet de loi exige que tout système d'IA conversationnelle "obtienne le consentement affirmatif de l'utilisateur avant d'entamer la conversation".

Ainsi, chaque fois que vous utilisez ChatGPT ou Siri, la conversation devrait commencer par "Je suis une IA". Comprenez-vous et acceptez-vous cela ? À chaque fois.

Les créateurs de modèles d'IA générative doivent également tenir un registre des contenus générés par l'IA que leurs modèles ont produits, lorsque ceux-ci pourraient être considérés comme générés par l'homme.

Cela serait probablement impossible pour les créateurs de modèles ouverts. Une fois que quelqu'un a téléchargé et exécuté le modèle localement, comment pouvez-vous contrôler ce qu'il génère ?

Le projet de loi s'applique à tous les modèles distribués en Californie, quelle que soit leur taille ou leur auteur. S'il est adopté par le Sénat le mois prochain, les modèles d'IA non conformes ne pourront plus être distribués ni même hébergés en Californie. Désolé pour HuggingFace et GitHub.

Si vous vous retrouvez du mauvais côté de la loi, celle-ci prévoit des amendes de "$1 million ou 5% du revenu annuel global du contrevenant, le montant le plus élevé étant retenu". Cela équivaut à des milliards de dollars pour des entreprises comme Meta ou Google.

La réglementation de l'IA commence à faire basculer le soutien politique de la Silicon Valley vers les "alliés de Trump". "Faire de l'Amérique le premier pays en matière d'IA approche. Si les lois SB 1047 et AB 3211 sont promulguées le mois prochain, cela pourrait déclencher un exode des développeurs d'IA vers des États moins réglementés.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation