Les entreprises californiennes spécialisées dans l'IA ont poussé un soupir de soulagement lorsque le gouverneur Gavin Newsom a opposé son veto au projet de loi SB 1047 sur la sécurité de l'IA que le Sénat de l'État avait adopté au début du mois.
S'il est adopté, ce projet de loi controversé imposera des contrôles de sécurité supplémentaires pour les modèles d'IA qui franchissent un seuil de calcul ou de coût de formation. Ces modèles devraient être dotés d'un "interrupteur d'arrêt" et les fabricants devraient s'acquitter de lourdes amendes s'ils étaient utilisés pour causer un "préjudice grave".
Dans sa lettre au Sénat de l'État de Californie, M. Newsom explique que les raisons de sa décision d'opposer son veto au projet de loi.
Il a indiqué que l'une des raisons pour lesquelles la Californie abrite 32 des 50 plus grandes entreprises d'IA au monde est que l'État "cultive librement la liberté intellectuelle". Il n'a pas mentionné le risque que certaines de ces entreprises quittent la Californie, mais il a fait allusion à l'impact que le projet de loi aurait sur elles.
M. Newsom a déclaré que la principale raison de son veto était que le projet de loi était trop large et que le seuil de réglementation ne tenait pas compte des risques réels.
Il a déclaré : "En se concentrant uniquement sur les modèles les plus coûteux et à grande échelle, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie qui évolue rapidement. Des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le projet de loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public.
M. Newsom a déclaré qu'il était nécessaire de réglementer les risques liés à l'IA, mais qu'il valait mieux se concentrer sur les applications à risque plutôt que d'adopter l'approche générale de la loi SB 1047.
"Le projet de loi SB 1047 ne tient pas compte du fait qu'un système Al est déployé dans des environnements à haut risque, qu'il implique des prises de décision critiques ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques - du moment qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par cette technologie", a expliqué M. Newsom.
Bien que M. Newsom ait refusé de signer le SB 1047, il a fait référence à d'autres réglementations sur l'IA qu'il a signées ce mois-ci pour montrer qu'il prenait au sérieux les risques associés à l'IA.
Il a résumé son engagement en faveur de la sécurité et des progrès de l'IA en déclarant : "Compte tenu des enjeux - protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public - nous devons bien faire les choses."
Le sénateur Scott Weiner était, à juste titre, mécontent que M. Newsom ait refusé de signer le projet de loi dont il était l'auteur.
M. Weiner a déclaré : "Ce veto est un revers pour tous ceux qui croient au contrôle des grandes entreprises qui prennent des décisions cruciales affectant la sécurité et le bien-être du public et l'avenir de la planète... Ce veto nous laisse face à une réalité troublante : les entreprises visant à créer une technologie extrêmement puissante ne sont soumises à aucune restriction contraignante de la part des décideurs politiques américains, compte tenu notamment de la paralysie persistante du Congrès en ce qui concerne la réglementation de l'industrie technologique de manière significative.
Alors que M. Weiner a déploré l'échec du projet de loi, Yann LeCun, de Meta, et Marc Andreesen, un investisseur en capital-risque, ont publiquement remercié M. Newsom pour son veto.
Nous devrons attendre pour voir si la décision de M. Newsom est un exemple de leadership avant-gardiste ou une cause de regret.