La Ley de Inteligencia Artificial (IA) de la Unión Europea entró oficialmente en vigor el 1 de agosto de 2024, un momento decisivo para la regulación mundial de la IA.
Esta amplia legislación clasifica los sistemas de IA en función de sus niveles de riesgo, imponiendo distintos grados de supervisión que varían según la categoría de riesgo.
La Ley prohibirá por completo algunas formas de IA "de riesgo inaceptable", como las diseñadas para manipular el comportamiento de las personas.
Mientras que el Actuar es ahora ley en los 27 Estados miembros de la UE, la gran mayoría de sus disposiciones no entran en vigor inmediatamente.
Por el contrario, esta fecha marca el inicio de una fase de preparación tanto para los reguladores como para las empresas.
No obstante, los engranajes están en marcha y la Ley marcará sin duda el futuro del desarrollo, la implantación y la gestión de las tecnologías de IA, tanto en la UE como a escala internacional.
El calendario de aplicación es el siguiente:
- Febrero de 2025: Entran en vigor las prohibiciones de prácticas de IA "de riesgo inaceptable". Entre ellas se incluyen los sistemas de puntuación social, el raspado de imágenes faciales no selectivo y el uso de tecnología de reconocimiento de emociones en lugares de trabajo y entornos educativos.
- Agosto de 2025: Entran en vigor los requisitos para los modelos de IA de propósito general. Esta categoría, que incluye grandes modelos lingüísticos como GPT, tendrá que cumplir normas de transparencia, seguridad y mitigación de riesgos.
- Agosto de 2026: Se hace obligatoria la regulación de los sistemas de IA de alto riesgo en sectores críticos como la sanidad, la educación y el empleo.
La Comisión Europea se está preparando para hacer cumplir estas nuevas normas.
El portavoz de la Comisión, Thomas Regnier, explicó que unos 60 miembros del personal actual serán reasignados a la nueva Oficina de AI, y el año que viene se contratarán otros 80 empleados externos.
Además, cada Estado miembro de la UE debe establecer autoridades nacionales competentes para supervisar y hacer cumplir la Ley antes de agosto de 2025.
El cumplimiento no se producirá de la noche a la mañana. Aunque cualquier gran empresa de IA habrá estado preparándose para la Ley durante algún tiempo, los expertos estiman que la aplicación de los controles y prácticas puede llevar seis meses o más.
Es mucho lo que está en juego para las empresas atrapadas en el punto de mira de la Ley. Las empresas que la infrinjan podrían enfrentarse a multas de hasta 35 millones de euros o el 7% de sus ingresos anuales globales, la cantidad que sea mayor.
Eso es más alto que el GPDR, y la UE no tiende a hacer amenazas ociosas, recogiendo más de 4 000 millones de euros de las multas del GDPR hasta la fecha.
Repercusiones internacionales
La Ley de Inteligencia Artificial de la UE es la primera normativa global sobre IA del mundo y establecerá nuevas normas en todo el mundo.
Grandes empresas como Microsoft, Google, Amazon, Apple y Meta serán las más afectadas por la nueva normativa.
Como Charlie Thompson, de Appian dijo a CNBC"La Ley de IA se aplicará probablemente a cualquier organización con operaciones o impacto en la UE, independientemente de dónde tenga su sede".
Algunas empresas estadounidenses están tomando medidas preventivas. Meta, por ejemplo, ha restringido la disponibilidad de su Modelo AI LLaMa 400B en Europaalegando incertidumbre normativa. OpenAI amenazó con limitar el lanzamiento de productos en Europa en 2023, pero se echó atrás rápidamente.
Para cumplir la Ley, las empresas de IA podrían tener que revisar los conjuntos de datos de formación, aplicar una supervisión humana más estricta y facilitar documentación detallada a las autoridades de la UE.
Esto no concuerda con el funcionamiento de la industria de la IA. Los modelos de IA patentados de OpenAI, Google, etc. son reservados y muy vigilados.
Los datos de formación son excepcionalmente valiosos, y revelarlos probablemente expondría grandes cantidades de material protegido por derechos de autor.
Para que el desarrollo de la IA avance al mismo ritmo que hasta ahora, hay que responder a preguntas difíciles.
Algunas empresas se ven presionadas a actuar antes que otras
La Comisión Europea calcula que alrededor del 85% de las empresas de IA entran en la categoría de "riesgo mínimo", que requiere poca supervisión, pero las normas de la Ley afectan, no obstante, a las actividades de las empresas de sus categorías superiores.
Los recursos humanos y el empleo forman parte de la categoría de "alto riesgo" de la Ley.
Los principales proveedores de software empresarial, como SAP, Oracle, IBM, Workday y ServiceNow, han lanzado aplicaciones de RRHH mejoradas con IA que incorporan la IA en la selección y gestión de candidatos.
Jesper Schleimann, responsable de Inteligencia Artificial de SAP para EMEA, ha declarado lo siguiente El Registro que la empresa ha establecido procesos sólidos para garantizar el cumplimiento de las nuevas normas.
Del mismo modo, Workday ha puesto en marcha un programa de IA responsable dirigido por altos ejecutivos para ajustarse a los requisitos de la Ley.
Otra categoría en la mira son los sistemas de IA utilizados en infraestructuras críticas y servicios públicos y privados esenciales.
Esto abarca una amplia gama de aplicaciones, desde la IA utilizada en redes energéticas y sistemas de transporte hasta las empleadas en sanidad y servicios financieros.
Las empresas que operan en estos sectores tendrán que demostrar que sus sistemas de IA cumplen estrictas normas de seguridad y fiabilidad. También se les exigirá que realicen evaluaciones de riesgo exhaustivas, implanten sistemas de supervisión sólidos y garanticen que sus modelos de IA son explicables y transparentes.
Aunque la Ley de AI prohíbe de plano ciertos usos de la identificación y la vigilancia biométricas, hace concesiones limitadas en contextos policiales y de seguridad nacional.
Esto ha demostrado ser un área fértil para el desarrollo de la IA, con empresas como Palantir construyendo sistemas avanzados de predicción de la delincuencia susceptibles de contradecir el acto.
El Reino Unido ya ha experimentado mucho con Vigilancia con IA. Aunque el Reino Unido está fuera de la UE, es casi seguro que muchas empresas de IA con sede allí tendrán que cumplir la Ley.
Incertidumbre ante el futuro
La respuesta a la Ley ha sido variada. Numerosas empresas del sector tecnológico de la UE han expresado su preocupación por su impacto en la innovación y la competencia.
En junio, más de 150 ejecutivos de grandes empresas como Renault, Heineken, Airbus y Siemens se unieron en una carta abierta, expresando su preocupación por el impacto de la normativa en las empresas.
Jeannette zu Fürstenberg, una de las firmantes y socia fundadora del fondo de capital riesgo La Famiglia VC, con sede en Berlín, expresó que la Ley de IA podría tener "implicaciones catastróficas para la competitividad europea".
France Digitale, que representa a las startups tecnológicas en Europa, criticó las normas y definiciones de la Ley: "Pedíamos que no se regulara la tecnología como tal, sino los usos de la tecnología. La solución adoptada hoy por Europa equivale a regular las matemáticas, lo que no tiene mucho sentido".
Sin embargo, sus defensores sostienen que la Ley también ofrece oportunidades para la innovación en el desarrollo responsable de la IA. La postura de la UE es clara: proteja a las personas de la IA y se creará una industria más completa y ética.
Regnier a Euro NewsLo que se oye por todas partes es que lo que hace la UE es pura regulación (...) y que esto bloqueará la innovación. Esto no es correcto".
"La legislación no está ahí para empujar a las empresas a no poner en marcha sus sistemas, sino todo lo contrario. Queremos que operen en la UE, pero queremos proteger a nuestros ciudadanos y proteger a nuestras empresas".
Aunque el escepticismo es grande, hay motivos para el optimismo. Sl establecimiento de límites al reconocimiento facial, la puntuación social y el análisis del comportamiento basados en la IA tiene por objeto proteger las libertades civiles de los ciudadanos de la UE, que desde hace tiempo tienen prioridad sobre la tecnología en la normativa comunitaria.
A nivel internacional, la Ley puede ayudar a generar confianza pública en las tecnologías de IA, disipar temores y establecer normas más claras para el desarrollo y uso de la IA.
Generar confianza a largo plazo en la IA es vital para que el sector siga avanzando, por lo que la Ley podría tener algunas ventajas comerciales, aunque habrá que tener paciencia para que fructifique.