La regulación mundial de la IA se ha convertido en una cuestión geopolítica, ¿hacia dónde nos llevará?

8 de noviembre de 2023
Regulación de la IA

La Cumbre sobre Seguridad de la IA celebrada en el Reino Unido, junto con la orden ejecutiva de Biden, ha puesto la regulación de la IA en el punto de mira, pero el panorama general sigue siendo confuso. 

La cumbre reunió a un grupo diverso de partes interesadas, demostrando un compromiso colectivo para dar forma al futuro de la IA. 

La acogida del acto en todo el espectro político de los medios de comunicación británicos fue en general positiva, con publicaciones típicamente contrarias al enfoque agresivo de Sunak, como The Guardian, que lo calificaron de éxito general. 

Aunque persiste la sensación de que los acontecimientos políticos relacionados con la IA hasta la fecha no son más que promesas, descartarlos por completo podría ser demasiado reduccionista. 

En Declaración de Bletchley fue uno de los principales resultados de la cumbre, respaldado por 28 países, entre ellos EE.UU., Reino Unido, China y la UE, lo que subraya el consenso internacional sobre la supervisión de la IA.

Dos días antes de la cumbre, Biden orden ejecutiva esbozó la estrategia estadounidense para gestionar los riesgos de la IA, mostrando la respuesta nacional del país a lo que sin duda es un reto mundial. 

El momento elegido para la orden ilustra un intento de afirmar el liderazgo y establecer normas en el campo de la IA, que avanza con rapidez.

En conjunto, estos acontecimientos han establecido sin duda el "¿por qué?" de la regulación: frenar los riesgos, enfatizar los beneficios y proteger a los grupos vulnerables. 

Nos hemos quedado con el "¿cómo?", y el discurso en torno a la naturaleza y la ejecución de la regulación sigue siendo controvertido.

Las grandes potencias se disputan ahora el liderazgo regulador, que el Primer Ministro británico, Rishi Sunak, se propuso liderar cuando anunció la cumbre.

Eso quedó un tanto eclipsado por la orden ejecutiva, en la que la Vicepresidenta Kamala Harris dijo sin rodeos: "Pretendemos que las medidas que estamos adoptando a nivel nacional sirvan de modelo para la acción internacional." 

Gina Raimondo, Secretaria de Comercio de EE.UU., captó aún más el doble espíritu de competencia y colaboración en su declaración en la Cumbre, al afirmar: "Incluso cuando las naciones compiten vigorosamente, podemos y debemos buscar soluciones globales a problemas globales".

Hablando del ethos que subyace a la reciente orden ejecutiva, Ben Buchanan, asesor de la Casa Blanca en materia de IA, afirmó: "El liderazgo de Estados Unidos en IA no consiste sólo en inventar la tecnología".

"Se trata de elaborar y codesarrollar los mecanismos de gobernanza, los protocolos de seguridad, las normas y las instituciones internacionales que darán forma al impacto de esta tecnología".

Parece que, para EE.UU., la regulación de la IA es un tema geopolíticamente competitivo, sobre todo si se combina con la subyugación de las exportaciones de IA de gama alta a Rusia, Oriente Medio y China.

¿Un poco menos de palabrería y un poco más de acción?

El jurado está deliberando sobre si estos acontecimientos acelerarán la legislación y si esa legislación será eficaz. Sin legislación, los desarrolladores de IA pueden seguir promoviendo marcos voluntarios sin estar obligados a cumplirlos.

Incluso con leyes en vigor, la IA avanza con rapidez, y los que realmente entienden la tecnología y sus repercusiones son pocos y sus opiniones están divididas. 

Los "padrinos de la IA" Geoffrey Hinton, Yoshio Bengio y Yann LeCun ni siquiera pueden ponerse de acuerdo sobre los riesgos de la IAsus proporciones y cómo abordarlas.

Charlotte Walker-Osborn, socia de tecnología del bufete de abogados Morrison Foerster, declaró que la Declaración de Bletchley "probablemente impulsará cierto nivel de consenso legislativo y gubernamental internacional en torno a los principios clave para regular la IA". 

"Cierto nivel" es una terminología reveladora. Como señala Walker-Osborn, "un enfoque verdaderamente uniforme es improbable" debido a los distintos planteamientos de regulación y gobernanza entre países. Lograr un consenso es una cosa, pero aplicarlo en marcos jurídicos y normativos dispares es otra muy distinta.

Además, la ausencia de requisitos vinculantes, como admite Rishi Sunak, y el hecho de que los gobiernos y las grandes empresas de IA recurran a acuerdos voluntarios para realizar pruebas son otros tantos indicios de las limitaciones. 

Sin una normativa aplicable, las declaraciones pueden carecer de la fuerza necesaria para impulsar cambios concretos, al igual que la orden ejecutiva de Biden. 

Es posible que hayamos entrado en un período sacudidor de simbólicas maniobras reguladoras, con una legislación concreta todavía en gran parte en tramitación fuera de China. 

Según Deb Raji, investigador del Fundación MozillaLa cumbre reveló perspectivas diversas.

"Creo que hay opiniones bastante divergentes en los distintos países sobre lo que hay que hacer exactamente", dijo Raji, lo que demuestra que incluso entre los que están de acuerdo en el principio de la regulación, los detalles siguen siendo polémicos. 

Otros ya habían dicho que el Congreso está tan dividido sobre algunos aspectos de la IA que es probable que la legislación quede muy lejos.

Anu Bradford, profesor de Derecho de la Universidad de Columbia, afirmó: "El Congreso está profundamente polarizado e incluso es disfuncional, hasta el punto de que es muy improbable que produzca ninguna legislación significativa sobre IA en un futuro próximo."

Del mismo modo, Margaret Mitchell, investigadora y jefa de ética de Hugging Face, declaró: "Los gobiernos tratarán de proteger sus intereses nacionales, y muchos de ellos tratarán de erigirse en líderes".

Fiabilidad de los marcos voluntarios

Basarse en marcos voluntarios de cualquier tipo no es históricamente fiable.

Desde el fracaso de la Sociedad de Naciones y el Acuerdo de Munch en la década de 1930 hasta el Protocolo de Kioto, el Acuerdo de París, los Principios Rectores de la ONU (UNGP) y, en el mundo empresarial, el escándalo de Enron, los intentos pasados de política voluntaria multilateral no inspiran confianza.

La política mundial de IA corre el riesgo de seguir los pasos de la historia, con promesas que se rompen contra las rocas de la realpolitik. En cuanto a la política de IA, ya se ha puesto de manifiesto un desequilibrio en la representación y la influencia. Mike Katell, investigador de ética del Instituto Alan Turing, señaló las disparidades regionalesEn el Sur Global hay grandes lagunas. En África ocurre muy poco". 

Además, la regulación requiere procesos legales rigurosos y sólidos para exigir responsabilidades a empresas extremadamente poderosas, como Microsoft y Google. 

Estados Unidos, Reino Unido, la UE y China pueden permitirse crear los tipos de marcos legislativos necesarios para, al menos, intentar que las empresas tecnológicas rindan cuentas sobre la IA, pero no puede decirse lo mismo de la mayoría de los países en desarrollo. 

Esto concentra la protección legal en los países más ricos, dejando a otros vulnerables a la explotación, tanto en términos de mano de obra para servicios de etiquetado de datos, que es fundamental para el desarrollo de la IA, como en términos de sus datos, que las empresas de IA podrían cosechar fácilmente debido a la falta de derechos digitales.

Las prioridades regionales difieren

La regulación de la IA no es una mera cuestión nacional, sino una pieza estratégica en el tablero internacional. 

Estados Unidos, por ejemplo, ha mostrado su mano con decretos que pretenden salvaguardar la innovación en IA al tiempo que garantizan que se mantiene en línea con los valores y normas democráticos. 

Del mismo modo, la UE ha propuesto de forma proactiva la Ley de Inteligencia Artificial, que pretendía establecer normas globales tempranas para el desarrollo y el uso de la IA. Sin embargo, podría decirse que la UE se adelantó demasiado, arriesgándose a que su legislación quedara desfasada o mal definida para la industria actual de la IA, lo que también demuestra que "observar y esperar" es tanto una jugada estratégica como práctica. 

Hasta ahora ha sido difícil unificar al bloque de la UE en los matices más sutiles de la regulación de la IA, como qué límites se establecen y para quién, y cómo deben actuar las fuerzas del orden en caso de incumplimiento. Aunque es probable que la ley se ratifique pronto, sus repercusiones en la I+D actual sobre IA dirán hasta qué punto es eficaz para imponer su cumplimiento. 

Mientras tanto, otros insinúan que elaborarán sus propias normas, con países como Canadá y Japón insinuando sus próximas iniciativas políticas en materia de IA. 

Además, las potencias líderes en IA son plenamente conscientes de que el establecimiento de marcos reguladores puede proporcionarles una ventaja competitiva. Los reglamentos que proponen no solo establecen las normas para el uso ético de la IA, sino que también definen el terreno de juego para la competencia económica. 

El panorama de la gobernanza de la IA está llamado a convertirse en un mosaico de enfoques y filosofías variados.

"Se intensifican los debates sobre la "Guerra Fría de la IA

La agresiva postura de Estados Unidos de convertirse en un modelo occidental para el desarrollo de la IA tiene otro aspecto: refuerza su posición frente a China. 

Reflejo de una rivalidad predominantemente tecnológica más que nuclear o ideológica, la competencia entre EE.UU. y China ha sido calificada por los medios de comunicación como la "Guerra Fría de la IA", o quizás más inocuamente, la "Carrera de la IA".

La utilización de la IA con fines militares ocupa un lugar central en la narrativa estadounidense sobre la restricción del comercio con China, y la tecnología de semiconductores se perfila como un campo de batalla crucial debido a su importancia fundamental para la competitividad de la industria de la IA.

La narrativa en torno a la Guerra Fría de la IA arraigó tras el anuncio de China de su ambición de convertirse en el líder mundial de la IA para 2030. Esta afirmación suscitó preocupación y llamamientos a Estados Unidos para que mantuviera la supremacía tecnológica, no solo por su propio bien, sino por los valores democráticos en general, dado el potencial de la IA para reforzar los regímenes autoritarios, como han observado algunos en el uso que hace China de la tecnología en la vigilancia estatal.

Personalidades como Eric Schmidt, ex Consejero Delegado de Google, y el politólogo Graham T. Allison han hecho saltar las alarmas sobre los rápidos avances de China en el campo de la inteligencia artificial, sugiriendo que Estados Unidos podría estar quedándose atrás en aspectos cruciales.

Además, el potencial de un uso poco ético de la IA, asociado principalmente a China, presenta un abismo ideológico que recuerda a la primera Guerra Fría. Así pues, las consideraciones éticas en el despliegue de la IA se han convertido en un elemento narrativo fundamental en los debates sobre esta incipiente guerra fría.

Político sugirió más tarde que puede ser necesaria una alianza de naciones democráticas para contrarrestar el ascenso de China en la IA.

La industria de los semiconductores es especialmente conflictiva, y Taiwán desempeña un papel fundamental en las tensiones geográficas. La Taiwan Semiconductor Manufacturing Company (TSMC) está en el centro, y la mayoría de los semiconductores del mundo se fabrican o pasan por Taiwán, un país cuya soberanía no reconoce China. De hecho, la mayoría de los chips de Nvidia también se fabrican en Taiwán.

Las tensiones también han salpicado a las restricciones comerciales, como se ha visto cuando funcionarios estadounidenses y europeos han citado la "Guerra Fría de la IA" como justificación para prohibir la tecnología 5G de Huawei en los procesos de contratación pública por motivos de vigilancia. 

Además, tanto el gobierno de Trump como el de Biden han impuesto limitaciones a la empresa holandesa ASML, impidiendo la exportación de equipos avanzados de fabricación de semiconductores a China, alegando de nuevo riesgos para la seguridad nacional.

En el frente de la política industrial, Estados Unidos aprobó la Ley de Innovación y Competencia y, posteriormente, la Ley CHIPS y de Ciencia, que canaliza miles de millones hacia la tecnología y la fabricación para contrarrestar la supuesta amenaza china. La UE ha imitado este planteamiento con su Ley Europea de Chips, destinada a reforzar su capacidad de fabricación de semiconductores.

La regulación de la IA está entrando quizá en una nueva fase de debate geopolítico más intenso.

Paralelamente, algunos dudan incluso de que la la tecnología plantea riesgos a gran escalamientras que otros están seguros de ello. La confusión en todos los bandos es palpable.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×
 
 

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI


 

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.



 
 

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales