A Califórnia está a considerar vários projectos de lei para regulamentar a IA, sendo que o SB 1047 e o AB 3211 deverão ter um enorme impacto nos criadores de IA se se tornarem lei no próximo mês.
Os argumentos sobre os riscos da IA e a forma de os mitigar continuam e, na ausência de leis federais dos EUA, a Califórnia elaborou leis que podem abrir o precedente para outros estados.
O SB 1047 e o AB 3211 foram ambos aprovados na Assembleia do Estado da Califórnia e poderão tornar-se lei no próximo mês, quando o Senado os votar.
Os apoiantes dos projectos de lei afirmam que estes fornecem protecções há muito esperadas contra os riscos de modelos de IA inseguros e de conteúdos sintéticos gerados por IA. Os críticos dizem que os requisitos exigidos nos projectos de lei vão matar o desenvolvimento da IA no Estado, uma vez que os requisitos são impraticáveis.
Eis um breve olhar sobre os dois projectos de lei e a razão pela qual os criadores de IA californianos podem estar a considerar a possibilidade de se incorporarem noutros estados.
SB 1047
O SB 1047 "Lei sobre a inovação segura e protegida para modelos de inteligência artificial de fronteira" aplicar-se-á aos fabricantes de modelos que custem $100 milhões ou mais para treinar.
Estes criadores serão obrigados a efetuar controlos de segurança adicionais e serão responsabilizados se os seus modelos forem utilizados para causar "danos graves".
O projeto de lei define "danos críticos" como a "criação ou utilização de uma arma química, biológica, radiológica ou nuclear de uma forma que resulte em baixas em massa... ou pelo menos quinhentos milhões de dólares ($500,000,000) de danos resultantes de ciberataques a infra-estruturas críticas.
Esta pode parecer uma boa ideia para garantir que os criadores de modelos avançados de IA têm o cuidado necessário, mas será prática?
Um fabricante de automóveis deve ser responsabilizado se o seu veículo não for seguro, mas será que deve ser responsabilizado se uma pessoa atropelar intencionalmente alguém que esteja a utilizar o seu veículo?
Yann LeCun, cientista-chefe de IA da Meta, não pensa assim. LeCun critica o projeto de lei e afirma: "Os reguladores devem regular as aplicações, não a tecnologia... Responsabilizar os criadores de tecnologia por más utilizações de produtos construídos a partir da sua tecnologia irá simplesmente parar o desenvolvimento tecnológico."
O projeto de lei também responsabilizará os criadores de modelos se alguém criar um derivado do seu modelo e causar danos. Esta exigência seria a morte dos modelos de peso aberto que, ironicamente, o Ministério do Comércio aprovou.
A SB 1047 foi aprovada no Senado da Califórnia em maio com uma votação de 32-1 e tornar-se-á lei se for aprovada no Senado em agosto.
AB 3211
O Lei de Proveniência, Autenticidade e Normas de Marca de Água da Califórnia (AB 3211) tem por objetivo garantir a transparência e a responsabilidade na criação e distribuição de conteúdos sintéticos.
Se algo foi gerado por IA, o projeto de lei diz que tem de ser rotulado ou ter uma marca de água digital para o tornar claro.
A marca de água tem de ser "maximamente indelével... concebida para ser tão difícil de remover quanto possível". A indústria adoptou o Norma de proveniência C2PAmas é trivial remover os metadados do conteúdo.
O projeto de lei exige que todos os sistemas de IA de conversação "obtenham o consentimento afirmativo do utilizador antes de iniciar a conversação".
Assim, sempre que se utiliza o ChatGPT ou a Siri, esta teria de iniciar a conversa com "Eu sou uma IA. Compreendes e dás o teu consentimento?". Todas as vezes.
Outro requisito é que os criadores de modelos generativos de IA devem manter um registo dos conteúdos gerados por IA que os seus modelos produziram, sempre que estes possam ser interpretados como gerados por humanos.
Isto seria provavelmente impossível para os criadores de modelos abertos. Quando alguém descarrega e executa o modelo localmente, como é que se monitoriza o que é gerado?
O projeto de lei aplica-se a todos os modelos distribuídos na Califórnia, independentemente do tamanho ou de quem os criou. Se for aprovado no Senado no próximo mês, os modelos de IA que não estiverem em conformidade não poderão ser distribuídos ou mesmo alojados na Califórnia. Lamento a situação do HuggingFace e do GitHub.
Se se encontrar do lado errado da lei, esta permite multas de "$1 milhões ou 5% da receita anual global do infrator, consoante o que for maior". Isto equivale a milhares de milhões de dólares para empresas como a Meta ou a Google.
A regulamentação da IA está a começar a mudar o apoio político de Silicon Valley para os aliados de Trump "Tornar a América a primeira em IA" abordagem. Se o SB 1047 e o AB 3211 forem assinados como lei no próximo mês, isso poderá desencadear um êxodo de programadores de IA que fogem para estados menos regulamentados.