Las propuestas de ley de California podrían ser desastrosas para el desarrollo de la IA

31 de julio de 2024

  • Dos proyectos de ley sobre IA impondrán requisitos onerosos a los fabricantes de modelos de IA
  • El proyecto de ley SB 1047 hará legalmente responsables a los desarrolladores de IA si otros utilizan sus modelos de forma peligrosa
  • La ley AB 3211 obliga a marcar con agua y etiquetar los contenidos sintéticos y prohíbe los modelos que no lo hagan.

California está estudiando varios proyectos de ley para regular la inteligencia artificial. El SB 1047 y el AB 3211 tendrán un enorme impacto en los desarrolladores de inteligencia artificial si se convierten en ley el mes que viene.

Las discusiones sobre los riesgos de la IA y cómo mitigarlos continúan y, a falta de leyes federales estadounidenses, California ha redactado leyes que podrían sentar precedente para otros estados.

Los proyectos de ley SB 1047 y AB 3211 fueron aprobados por la Asamblea del Estado de California y podrían convertirse en ley el mes que viene, cuando el Senado los vote.

Los partidarios de estos proyectos de ley afirman que ofrecen una protección largamente esperada contra los riesgos de los modelos de IA inseguros y los contenidos sintéticos generados por IA. Los detractores afirman que los requisitos exigidos en los proyectos de ley acabarán con el desarrollo de la IA en el estado, ya que son inviables.

He aquí un breve repaso a los dos proyectos de ley y a las razones por las que los desarrolladores de IA californianos podrían plantearse establecerse en otros estados.

SB 1047

En SB 1047 "Ley de innovación segura para modelos de inteligencia artificial de frontera" se aplicará a los fabricantes de modelos cuyo entrenamiento cueste $100 millones o más.

Estos desarrolladores deberán aplicar controles de seguridad adicionales y serán responsables si sus modelos se utilizan para causar "daños críticos".

El proyecto de ley define "daño crítico" como la "creación o uso de un arma química, biológica, radiológica o nuclear de forma que se produzcan víctimas masivas... o al menos quinientos millones de dólares ($500.000.000) de daños resultantes de ciberataques a infraestructuras críticas".

Esto puede parecer una buena idea para asegurarse de que los creadores de modelos avanzados de IA tienen el cuidado suficiente, pero ¿es práctico?

Un fabricante de automóviles debe ser responsable si su vehículo no es seguro, pero ¿debe serlo si una persona atropella intencionadamente a otra utilizando su vehículo?

Yann LeCun, científico jefe de IA de Meta, no piensa lo mismo. LeCun se muestra crítico con el proyecto de ley y afirma: "Los reguladores deberían regular las aplicaciones, no la tecnología... Hacer responsables a los desarrolladores de tecnología de los malos usos de los productos construidos a partir de su tecnología simplemente detendrá el desarrollo tecnológico."

El proyecto de ley también hará responsables a los creadores de modelos si alguien crea un derivado de su modelo y causa daños. Ese requisito supondría la muerte de los modelos de peso abierto que, irónicamente, el Departamento de Comercio ha aprobado.

El proyecto de ley SB 1047 fue aprobado por el Senado de California en mayo con 32 votos a favor y 1 en contra, y se convertirá en ley si se aprueba en el Senado en agosto.

AB 3211

En Ley de Normas de Procedencia, Autenticidad y Marca de Agua de California (AB 3211) pretende garantizar la transparencia y la responsabilidad en la creación y distribución de contenidos sintéticos.

Si algo ha sido generado por la IA, el proyecto de ley dice que tiene que estar etiquetado o tener una marca de agua digital para dejarlo claro.

La marca de agua debe ser "lo más indeleble posible... diseñada para que sea lo más difícil de eliminar". La industria ha adoptado la Norma de procedencia C2PApero es trivial eliminar los metadatos del contenido.

El proyecto de ley exige que todo sistema de IA conversacional "obtenga el consentimiento afirmativo del usuario antes de iniciar la conversación".

Así, cada vez que utilices ChatGPT o Siri, tendrá que empezar la conversación con "Soy una IA. ¿Lo entiendes y das tu consentimiento? Siempre.

Otro requisito es que los creadores de modelos generativos de IA lleven un registro de los contenidos generados por IA que hayan producido sus modelos cuando éstos puedan interpretarse como generados por humanos.

Esto probablemente sería imposible para los creadores de modelos abiertos. Una vez que alguien descarga y ejecuta el modelo localmente, ¿cómo se controla lo que genera?

El proyecto de ley se aplica a todos los modelos distribuidos en California, independientemente de su tamaño o de quién los haya fabricado. Si se aprueba en el Senado el mes que viene, los modelos de IA que no cumplan la normativa no podrán distribuirse ni alojarse en California. Lo sentimos por HuggingFace y GitHub.

Si te encuentras en el lado equivocado de la ley, permite multas de "$1 millón o 5% de los ingresos anuales globales del infractor, lo que sea mayor". Esto equivale a miles de millones de dólares para empresas como Meta o Google.

'La regulación de la IA empieza a decantar el apoyo político de Silicon Valley hacia los aliados de Trump' "Hacer que Estados Unidos sea el primero en IA" enfoque. Si el SB 1047 y el AB 3211 se convierten en ley el mes que viene, podría desencadenarse un éxodo de desarrolladores de IA que huirían a estados menos regulados.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales