El 30 de octubre de 2023 se producirá un avance en la gobernanza de la IA, ya que el Presidente Joe Biden ha anunciado una orden ejecutiva exhaustiva que establece normas y directrices sólidas para la IA.
Se espera que la orden marque el comienzo de una nueva era de transparencia y normalización para las empresas de IA, destacando la necesidad de prácticas claras de etiquetado de contenidos y marcas de agua.
"Para hacer realidad la promesa de la IA y evitar el riesgo, tenemos que gobernar esta tecnología, no hay forma de evitarlo", dijo Biden en el acto de la firma en la Casa Blanca.
En el acto, Biden también habló de las falsificaciones profundas de IA, anunciando con humor entre el público: "He visto una mía... dije, ¿dije eso?"
En pedir se centra en una mayor transparencia por parte de los desarrolladores de IA y establece una serie de nuevas normas, en particular para etiquetar los contenidos generados por IA.
Con esta orden, la Casa Blanca pretende mejorar la "seguridad y protección de la IA". Incluye un sorprendente requisito para que los desarrolladores compartan los resultados de las pruebas de seguridad de los nuevos modelos de IA con el gobierno estadounidense si la tecnología puede suponer una amenaza para la seguridad nacional.
Se trata de la Ley de Producción de Defensa, normalmente reservada para emergencias nacionales.
Para quienes no estén familiarizados con la legislación estadounidense, las órdenes ejecutivas no son legislación: no crean nuevas leyes ni modifican las existentes. En cambio, dan instrucciones al Congreso sobre las prioridades políticas.
La orden, publicado aquísí contiene numerosos plazos en los que se especifican diversas medidas que deben adoptarse para dar paso a la legislación sobre IA.
Las órdenes ejecutivas deben basarse en la autoridad constitucional o estatutaria y no pueden utilizarse para eludir al Congreso o crear leyes unilateralmente.
Como resultado, muchos han destacado que la orden ejecutiva carece de mecanismos de aplicación. No tiene el peso de la legislación del Congreso sobre IA.
"El Congreso está profundamente polarizado e incluso es disfuncional, hasta el punto de que es muy poco probable que produzca ninguna legislación significativa sobre IA en un futuro próximo", observa Anu Bradford, profesor de Derecho de la Universidad de Columbia.
La orden llega días antes de que el Reino Unido se Cumbre de Seguridad sobre IAque reunirá en Bletchley Park a políticos, investigadores, ejecutivos del sector tecnológico y miembros de la sociedad civil. Asistirá la Vicepresidenta Kamala Harris. China también estará representada en la cumbre.
"Pretendemos que las medidas que estamos adoptando a nivel nacional sirvan de modelo para la acción internacional", declaró Harris en el acto celebrado en la Casa Blanca.
Esta declaración llama la atención sobre las críticas de que la orden podría socavar la colaboración internacional abierta antes de la Cumbre sobre Seguridad de la IA.
EE.UU. fue un pionero lento en la regulación de la IA, y la naturaleza de las órdenes ejecutivas significa que sigue siéndolo. Quizá sea descarado sugerir que otros países sigan su trayectoria.
Harris continuó diciendo que EE.UU. "aplicaría las reglas y normas internacionales existentes con el propósito de promover el orden y la estabilidad mundiales y, cuando fuera necesario, conseguir apoyo para reglas y normas adicionales que respondan a este momento".
Lo que dice la Casa Blanca
La orden introduce normas estrictas para la IA, salvaguardando la privacidad de los estadounidenses, fomentando la equidad y los derechos civiles, protegiendo a consumidores y trabajadores, impulsando la innovación y la competencia, y reforzando el liderazgo estadounidense en IA.
Complementa compromisos voluntarios de 15 empresas líderes para promover el desarrollo seguro y fiable de la IA.
Uno de los elementos más notables de la orden es que el Presidente ha declarado que los desarrolladores de sistemas de IA "potentes" tendrán que compartir con el gobierno estadounidense los resultados de las pruebas de seguridad e información crítica, con el objetivo de garantizar que estos sistemas son seguros y fiables antes de su lanzamiento público.
El Instituto Nacional de Normas y Tecnología (NIST) dirigirá los esfuerzos de "red teaming" para probar y analizar la seguridad de los modelos de IA.
Red team es el proceso de probar y someter a pruebas de estrés la funcionalidad y la seguridad de los modelos de IA.
En cuanto a la privacidad, el llamamiento del Presidente a una legislación bipartidista sobre privacidad de datos refleja una comprensión de la urgencia de la situación.
Sin embargo, como se ha señalado, la eficacia de estas medidas dependerá en última instancia de la acción rápida y decisiva del Congreso, que históricamente ha sido lento a la hora de legislar sobre cuestiones relacionadas con la tecnología.
Además, la orden ejecutiva adopta una postura firme en la promoción de la equidad y la lucha contra la discriminación algorítmica, con directrices para garantizar la equidad en la vivienda, la justicia penal y los programas de prestaciones federales.
Una vez más, aunque se trata de pasos positivos, el éxito de estas iniciativas dependerá de una aplicación rigurosa y una supervisión continua.
La orden aborda ocho áreas clave.
He aquí cómo la histórica Orden Ejecutiva del Presidente Biden sobre IA garantizará que Estados Unidos lidere este periodo de cambio tecnológico, manteniendo al mismo tiempo la seguridad de los estadounidenses. pic.twitter.com/SvBPxiZk3M
- La Casa Blanca (@WhiteHouse) 30 de octubre de 2023
1. Nuevas normas para la seguridad de la IA
- Los desarrolladores de potentes sistemas de IA deben compartir los resultados de las pruebas de seguridad e información crucial con el gobierno estadounidense.
- El desarrollo de normas, herramientas y pruebas para garantizar la seguridad y fiabilidad de los sistemas de IA, dirigido por el NIST.
- Protección contra el potencial de la IA en la ingeniería de materiales biológicos peligrosos mediante el establecimiento de normas sólidas para la selección de síntesis biológicas.
- Establecer protocolos para proteger a los estadounidenses del fraude y el engaño mediante IA, incluidas normas para detectar contenidos generados por IA y autenticar comunicaciones oficiales.
- Lanzamiento de un programa avanzado de ciberseguridad para aprovechar la IA en la protección de software y redes.
2. Proteger la intimidad de los estadounidenses
- Abogar por el apoyo federal al desarrollo y uso de técnicas de preservación de la privacidad en la IA.
- Refuerzo de la investigación en tecnologías de preservación de la intimidad.
- Mejorar las directrices de los organismos federales para garantizar la privacidad en la recogida y uso de datos, especialmente los de identificación personal.
3. Promover la equidad y los derechos civiles
- Proporcionar orientación para mitigar el potencial de la IA de exacerbar la discriminación en la vivienda, la justicia y el empleo.
- Promover la equidad en todo el sistema de justicia penal mediante el desarrollo de mejores prácticas en la aplicación de la IA.
4. Defender a los consumidores, los pacientes y los estudiantes
- Fomentar el uso responsable de la IA en la atención sanitaria para desarrollar medicamentos asequibles que salven vidas y garantizar la seguridad en las prácticas sanitarias en las que interviene la IA.
- Facilitar el papel transformador de la IA en la educación, apoyando a los educadores en el despliegue de herramientas de aprendizaje mejoradas con IA.
5. Apoyo a los trabajadores
- Desarrollar principios y buenas prácticas para equilibrar los beneficios y los perjuicios de la IA en el lugar de trabajo.
- Realizar estudios exhaustivos sobre el impacto de la IA en el mercado laboral y reforzar el apoyo federal a los trabajadores que se enfrentan a interrupciones laborales debidas a la IA.
6. Promover la innovación y la competencia
- Catalizar la investigación sobre IA en todo el país y garantizar un ecosistema de IA competitivo.
- Agilizar los procesos de inmigración para personas altamente cualificadas en sectores críticos de la IA.
7. Impulsar el liderazgo estadounidense en el extranjero
- Reforzar las colaboraciones y los marcos internacionales en IA.
- Fomento del desarrollo y la implantación seguros y responsables de la IA en todo el mundo.
8. Garantizar un uso responsable y eficaz de la IA por parte de los gobiernos
- Proporcionar orientaciones claras a los organismos federales sobre el uso, la adquisición y la implantación de la IA.
- Mejorar la adquisición de talentos en IA en todo el gobierno y proporcionar formación en IA a los empleados federales.
La Administración Biden-Harris intenta encontrar un equilibrio entre mantener y potenciar la industria estadounidense de IA, líder mundial, y frenar los riesgos evidentes.
Falsificaciones profundas y desinformación están en el punto de mira de la mayoría de la gente, ya que ahora tenemos pruebas tangibles de que podrían influir en los votos de las elecciones.
Con las elecciones generales de EE.UU. el año que viene, quizá no sorprenda que la orden aumente la presión para poner marcas de agua y resaltar los contenidos generados por IA, de modo que los usuarios puedan distinguir fácilmente los auténticos de los falsos.
Sin embargo, desde el punto de vista técnico, existen no hay soluciones sólidas para lograrlo en la práctica.
Reacciones del sector
Como es natural, las reacciones del sector son diversas. Muchos elogian el rápido avance hacia la firma de la orden, mientras que otros destacan que falta legislación e información sobre las medidas de ejecución.
Una vez más, la orden indica que la Casa Blanca pretende que el Congreso actúe sobre la política de IA.
La única excepción en este caso es la Ley de Producción de Defensa, que se ha invocado para obligar a las empresas de IA a notificar al gobierno cuando desarrollan modelos que interactúan con la seguridad nacional.
La redacción oficial es un modelo de IA que supone un "grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales".
La Orden Ejecutiva sobre IA es un poco ridícula y bastante difícil de aplicar.
Aquí están los problemas -
1. Cualquier modelo de fundación que suponga un grave riesgo para la seguridad nacional - ¿Cómo se determina si algo supone un "grave riesgo para la seguridad nacional"?
Si se trata de...
- Bindu Reddy (@bindureddy) 30 de octubre de 2023
Algunos destacaron que, en comparación con la Ley de Inteligencia Artificial de la UE, no hay directrices sobre la transparencia de los datos de formación, por lo que varios desarrolladores de IA se enfrentan a demandas judiciales.
Ausente de la nueva orden ejecutiva:
Las empresas de IA deben revelar su conjunto de entrenamiento.
Para desarrollar una IA segura, necesitamos saber con qué se entrena el modelo.
¿Por qué no abogan por ello las organizaciones de seguridad de la IA?https://t.co/yjr21bNIK4
- Damek Davis (@damekdavis) 30 de octubre de 2023
Adnan Masood, Arquitecto Jefe de IA en la UST, aplaudió la iniciativa, declarando: "La orden subraya un cambio muy necesario en la atención mundial hacia la regulación de la IA, especialmente después del boom de la IA generativa que todos hemos presenciado este año."
Avivah LitanVicepresidenta de Gartner Research, señaló que, aunque las normas empiezan con fuerza, todavía hay áreas en las que los mandatos se quedan cortos. Cuestionó la definición de los sistemas de IA "más potentes", la aplicación a los modelos de IA de código abierto y el cumplimiento de las normas de autenticación de contenidos en las plataformas de redes sociales.
Bradley Tusk, consejero delegado de Tusk Ventures, dijo que no es probable que los desarrolladores de IA compartan datos privados con el gobierno, afirmando: "Sin un mecanismo de aplicación real, que la orden ejecutiva no parece tener, el concepto es genial, pero la adhesión puede ser muy limitada".
Randy Lariarlíder de seguridad de IA en Optiv, dijo: "Me preocupa que muchos modelos de código abierto, que se derivan de los grandes modelos fundacionales, puedan ser igual de arriesgados sin la carga del red teaming - pero esto es un comienzo".
Ashley Leonarddirector ejecutivo de Syxsense, añadió que será muy interesante ver cómo se aplica la orden. "Incluso las empresas más avanzadas necesitan recursos reales -presupuesto, tiempo y personal- para estar al día de las vulnerabilidades y las correcciones de errores", afirmó Leonard.
Max Tegmark, profesor del Instituto Tecnológico de Massachusetts y presidente del Future of Life Institute, destacó que la orden debe venir equipada con un plan para crear y hacer cumplir la legislación, afirmando: "Los responsables políticos, incluidos los del Congreso, deben velar por sus ciudadanos promulgando leyes con dientes que atajen las amenazas y salvaguarden el progreso".
Jaysen GillespieDirector de Análisis y Ciencia de Datos de RTB House, valoró positivamente la orden ejecutiva, afirmando que la regulación de la IA es un tema en el que un enfoque bipartidista es realmente posible.
Alejandro Mayorkas de Seguridad Nacional dijo: "La velocidad sin precedentes del desarrollo y la adopción de la IA presenta riesgos significativos que debemos mitigar rápidamente, junto con oportunidades para avanzar y mejorar nuestro trabajo en nombre del pueblo estadounidense... Dirige DHS para gestionar la IA en la infraestructura crítica y el ciberespacio, promover la adopción de normas de seguridad de IA a nivel mundial, reducir el riesgo de uso de IA para crear armas de destrucción masiva, combatir el robo de propiedad intelectual relacionado con la IA, y asegurar que nuestro sistema de inmigración atraiga talento para desarrollar IA responsable en los Estados Unidos."
Casey Ellisfundador y director técnico de Bugcrowd, ha declarado: "La directiva obliga a los desarrolladores a compartir los resultados de las pruebas de seguridad con el Gobierno de EE.UU., lo que garantiza que los sistemas de IA se examinan exhaustivamente antes de su publicación. También subraya la importancia de la IA para reforzar la ciberseguridad, en particular para detectar el fraude posibilitado por la IA y mejorar la seguridad del software y la red. La orden también aboga por el desarrollo de normas, herramientas y pruebas para la seguridad de la IA".
Un paso necesario, pero con retos por delante
La orden ejecutiva del Presidente Biden sobre IA intenta ser exhaustiva, pero el Congreso debe acompañar su urgencia con medidas legislativas. Esto no está ni mucho menos garantizado.
Aunque establece normas estrictas y hace hincapié en la transparencia, la responsabilidad y la prevención de prácticas discriminatorias, la verdadera eficacia de esta iniciativa dependerá de su aplicación y de la capacidad de equilibrar la supervisión reglamentaria con el fomento de la innovación.
Ante la inminencia de la Cumbre sobre Seguridad de la IA, se intensifican las conversaciones en torno a los riesgos de la IA y cómo mitigarlos.
El control exhaustivo de la IA sigue dependiendo de la rapidez y eficacia de la legislación y de la capacidad de hacerla cumplir.