GitHub publica un documento de orientación sobre la Ley de Inteligencia Artificial de la UE

30 de julio de 2023

GitHub IA

GitHub, Hugging Face, Creative Commons y otras organizaciones tecnológicas han publicado una carta abierta a los responsables políticos de la UE, instándoles a reevaluar algunos elementos de la Ley de IA. 

En carta afirma que la normativa propuesta corre el riesgo de impedir el desarrollo de modelos de IA de código abierto y plantea 5 recomendaciones para mitigarlo. 

Uno de los principales puntos de discordia es el tratamiento de algunos proyectos de código abierto como si fueran sistemas de IA comerciales o implantados. Esto puede plantear dificultades a los desarrolladores individuales y a los investigadores sin ánimo de lucro.

La ley recibió una abrumadora mayoría de 499 votos a favor, 28 en contra y 93 abstenciones en el Parlamento Europeo. en junio

Sin embargo, sólo se promulgará cuando obtenga el consenso del Consejo de la UE, que representa a los 27 Estados miembros.

He aquí un resumen de las 5 recomendaciones de la carta:

  • Definición de "componentes de IA": La carta recomienda que la Ley de AI de la UE incluya una definición precisa de "componentes de AI", término utilizado habitualmente en la Ley, haciendo hincapié en la necesidad de delimitar cuáles son. 
  • Aclaración sobre el desarrollo de código abierto: El desarrollo colaborativo de IA de código abierto, como poner los componentes de IA a libre disposición en repositorios públicos, debe aclararse que no está sujeto a la Ley. Con ello se pretende distinguir el código abierto de las actividades comerciales.
  • Apoyo a una "Oficina de IA: GitHub y otros apoyan la intención de la UE de crear una Oficina de Inteligencia Artificial. 
  • Excepciones efectivas a la Ley: La carta aboga por establecer excepciones en las actividades relacionadas con las pruebas en condiciones reales de los sistemas de IA para conocer su rendimiento e identificar sus puntos débiles.
  • Requisitos proporcionales para los "modelos de cimientos": Por último, la carta pide un enfoque matizado para diferenciar entre los distintos modelos. Sostiene que la Ley debería tener en cuenta las características únicas de los modelos de código abierto. 

GitHub y otros firmantes esperan que la Ley equilibre la mitigación de riesgos y fomente la innovación en IA, pero sus recomendaciones ayudarían a apoyar a la comunidad de código abierto, que desempeña un papel importante en la industria. 

La regulación podría afectar desproporcionadamente a la IA de código abierto

Las grandes empresas tecnológicas como Microsoft, Google y Meta son expertas en la gestión del cumplimiento y la normativa. 

Eso no quiere decir que no cometan errores graves de vez en cuando, pero tienen el músculo y los recursos necesarios para cumplir la normativa sobre IA. 

De hecho, en su mayor parte, las grandes tecnológicas se han mostrado muy favorables a la regulación y proactivas respecto a la autorregulación. Google, Anthropic, OpenAI y Microsoft crearon el Frontier Model Forum. esta semanainiciar la colaboración entre competidores. 

La comunidad del código abierto cree que la regulación les afectará más, pudiendo incluso criminalizar formas de I+D pública en IA. 

Esto beneficia a las grandes tecnológicas, ya que la IA de código abierto es quizás su mayor competidor. Eso explicaría por qué están tan dispuestos a trabajar juntos.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales