La Californie étudie plusieurs projets de loi visant à réglementer l'IA. Les lois SB 1047 et AB 3211 devraient avoir un impact considérable sur les développeurs d'IA si elles sont adoptées le mois prochain.
Les débats sur les risques liés à l'IA et sur la manière de les atténuer se poursuivent et, en l'absence de lois fédérales américaines, la Californie a élaboré des lois qui pourraient constituer un précédent pour d'autres États.
SB 1047 et AB 3211 ont tous deux été adoptés par l'Assemblée de l'État de Californie et pourraient devenir des lois le mois prochain lorsque le Sénat les votera.
Les partisans de ces projets de loi affirment qu'ils fournissent des protections attendues depuis longtemps contre les risques liés aux modèles d'IA dangereux et aux contenus synthétiques générés par l'IA. Les détracteurs de ces projets de loi estiment que les exigences qu'ils prévoient tueront le développement de l'IA dans l'État, car elles sont inapplicables.
Voici un bref aperçu des deux projets de loi et des raisons pour lesquelles les développeurs d'IA californiens pourraient envisager de s'implanter dans d'autres États.
SB 1047
Les SB 1047 "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act" (loi sur l'innovation sûre et sécurisée pour les modèles d'intelligence artificielle de frontière) s'appliquera aux fabricants de modèles dont la formation coûte $100 millions ou plus.
Ces développeurs seront tenus de mettre en œuvre des contrôles de sécurité supplémentaires et seront responsables si leurs modèles sont utilisés pour causer des "dommages critiques".
Le projet de loi définit les "dommages critiques" comme "la création ou l'utilisation d'une arme chimique, biologique, radiologique ou nucléaire d'une manière qui entraîne des pertes massives... ou au moins cinq cents millions de dollars ($500 000 000) de dommages résultant de cyber-attaques sur des infrastructures critiques".
Cela peut sembler une bonne idée pour s'assurer que les créateurs de modèles d'IA avancés prennent suffisamment de précautions, mais est-ce pratique ?
Un constructeur automobile doit être responsable si son véhicule n'est pas sûr, mais doit-il être responsable si une personne percute intentionnellement quelqu'un qui utilise son véhicule ?
Yann LeCun, directeur scientifique de Meta en charge de l'IA, n'est pas de cet avis. LeCun critique le projet de loi et déclare : "Les régulateurs devraient réglementer les applications, pas la technologie... Rendre les développeurs de technologie responsables des mauvaises utilisations des produits construits à partir de leur technologie ne fera qu'arrêter le développement de la technologie."
Le projet de loi rendra également les créateurs de modèles responsables si quelqu'un crée un dérivé de leur modèle et cause un préjudice. Cette exigence signerait l'arrêt de mort des modèles à poids libre qui, ironiquement, le ministère du commerce a approuvé.
La loi SB 1047 a été adoptée par le Sénat de Californie en mai, par 32 voix contre 1. Elle entrera en vigueur si le Sénat l'adopte au mois d'août.
AB 3211
Les Loi californienne sur les normes de provenance, d'authenticité et de filigrane (California Provenance, Authenticity, and Watermarking Standards Act) (AB 3211) vise à garantir la transparence et la responsabilité dans la création et la distribution de contenus synthétiques.
Si quelque chose a été généré par l'IA, le projet de loi stipule qu'il doit être étiqueté ou comporter un filigrane numérique pour que cela soit clair.
Le filigrane doit être "indélébile au maximum... conçu pour être aussi difficile à enlever que possible". L'industrie a adopté la norme Norme de provenance C2PAmais il est facile de supprimer les métadonnées du contenu.
Le projet de loi exige que tout système d'IA conversationnelle "obtienne le consentement affirmatif de l'utilisateur avant d'entamer la conversation".
Ainsi, chaque fois que vous utilisez ChatGPT ou Siri, la conversation devrait commencer par "Je suis une IA". Comprenez-vous et acceptez-vous cela ? À chaque fois.
Les créateurs de modèles d'IA générative doivent également tenir un registre des contenus générés par l'IA que leurs modèles ont produits, lorsque ceux-ci pourraient être considérés comme générés par l'homme.
Cela serait probablement impossible pour les créateurs de modèles ouverts. Une fois que quelqu'un a téléchargé et exécuté le modèle localement, comment pouvez-vous contrôler ce qu'il génère ?
Le projet de loi s'applique à tous les modèles distribués en Californie, quelle que soit leur taille ou leur auteur. S'il est adopté par le Sénat le mois prochain, les modèles d'IA non conformes ne pourront plus être distribués ni même hébergés en Californie. Désolé pour HuggingFace et GitHub.
Si vous vous retrouvez du mauvais côté de la loi, celle-ci prévoit des amendes de "$1 million ou 5% du revenu annuel global du contrevenant, le montant le plus élevé étant retenu". Cela équivaut à des milliards de dollars pour des entreprises comme Meta ou Google.
La réglementation de l'IA commence à faire basculer le soutien politique de la Silicon Valley vers les "alliés de Trump". "Faire de l'Amérique le premier pays en matière d'IA approche. Si les lois SB 1047 et AB 3211 sont promulguées le mois prochain, cela pourrait déclencher un exode des développeurs d'IA vers des États moins réglementés.