GitHub, Hugging Face, Creative Commons y otras organizaciones tecnológicas han publicado una carta abierta a los responsables políticos de la UE, instándoles a reevaluar algunos elementos de la Ley de IA.
En carta afirma que la normativa propuesta corre el riesgo de impedir el desarrollo de modelos de IA de código abierto y plantea 5 recomendaciones para mitigarlo.
Uno de los principales puntos de discordia es el tratamiento de algunos proyectos de código abierto como si fueran sistemas de IA comerciales o implantados. Esto puede plantear dificultades a los desarrolladores individuales y a los investigadores sin ánimo de lucro.
La ley recibió una abrumadora mayoría de 499 votos a favor, 28 en contra y 93 abstenciones en el Parlamento Europeo. en junio.
Sin embargo, sólo se promulgará cuando obtenga el consenso del Consejo de la UE, que representa a los 27 Estados miembros.
He aquí un resumen de las 5 recomendaciones de la carta:
- Definición de "componentes de IA": La carta recomienda que la Ley de AI de la UE incluya una definición precisa de "componentes de AI", término utilizado habitualmente en la Ley, haciendo hincapié en la necesidad de delimitar cuáles son.
- Aclaración sobre el desarrollo de código abierto: El desarrollo colaborativo de IA de código abierto, como poner los componentes de IA a libre disposición en repositorios públicos, debe aclararse que no está sujeto a la Ley. Con ello se pretende distinguir el código abierto de las actividades comerciales.
- Apoyo a una "Oficina de IA: GitHub y otros apoyan la intención de la UE de crear una Oficina de Inteligencia Artificial.
- Excepciones efectivas a la Ley: La carta aboga por establecer excepciones en las actividades relacionadas con las pruebas en condiciones reales de los sistemas de IA para conocer su rendimiento e identificar sus puntos débiles.
- Requisitos proporcionales para los "modelos de cimientos": Por último, la carta pide un enfoque matizado para diferenciar entre los distintos modelos. Sostiene que la Ley debería tener en cuenta las características únicas de los modelos de código abierto.
GitHub y otros firmantes esperan que la Ley equilibre la mitigación de riesgos y fomente la innovación en IA, pero sus recomendaciones ayudarían a apoyar a la comunidad de código abierto, que desempeña un papel importante en la industria.
La regulación podría afectar desproporcionadamente a la IA de código abierto
Las grandes empresas tecnológicas como Microsoft, Google y Meta son expertas en la gestión del cumplimiento y la normativa.
Eso no quiere decir que no cometan errores graves de vez en cuando, pero tienen el músculo y los recursos necesarios para cumplir la normativa sobre IA.
De hecho, en su mayor parte, las grandes tecnológicas se han mostrado muy favorables a la regulación y proactivas respecto a la autorregulación. Google, Anthropic, OpenAI y Microsoft crearon el Frontier Model Forum. esta semanainiciar la colaboración entre competidores.
La comunidad del código abierto cree que la regulación les afectará más, pudiendo incluso criminalizar formas de I+D pública en IA.
Esto beneficia a las grandes tecnológicas, ya que la IA de código abierto es quizás su mayor competidor. Eso explicaría por qué están tan dispuestos a trabajar juntos.