El año pasado se celebró en el histórico Bletchley Park del Reino Unido la primera Cumbre Mundial sobre Seguridad de la IA, que cautivó la atención mundial.
Sin embargo, a medida que se acerca la segunda cumbre de seguimiento de los seis meses, prevista para los días 21 y 22 de mayo y organizada en su mayor parte virtualmente por el Reino Unido y Corea del Sur, los indicios sugieren que podría llegar un golpe de realidad.
Los organizadores de la cumbre esperan continuar el impulso generado en Bletchley Park, donde más de 25 representantes de gobiernos firmaron una declaración conjunta comprometiéndose a colaborar en la supervisión de la IA.
Aunque nadie esperaba que este pequeño acontecimiento provisional alcanzara o superara la grandeza del primera cumbre, asistentes clave, entre ellos DeepMind y Mozilla, no participarán en la reunión.
Aunque la UE no ha descartado su presencia en el evento, un portavoz confirmó que sus principales reguladores tecnológicos, entre ellos Margrethe Vestager, Thierry Breton y Vera Jourova, no asistirán.
El Departamento de Estado de Estados Unidos ha confirmado que enviará representantes a la reunión de Seúl, pero no ha especificado quiénes.
Mientras tanto, los gobiernos canadiense, brasileño y holandés han anunciado que no participarán en el evento.
Al parecer, el Gobierno francés también ha aplazado hasta 2025 la Cumbre anual de Seguridad, de mayor envergadura, pero esto sigue sin confirmarse.
Los retos de la IA se han vuelto más confusos
Afirmar que debemos proteger a la humanidad de sucesos globales y de nivel de extinción es bastante sencillo, dado que la tecnología sigue estando en su fase incipiente y el riesgo real sigue siendo bajo.
Por otro lado, una actuación significativa en materia de falsificaciones profundas, daños medioambientales y derechos de autor requiere un trabajo real que vaya más allá de la pompa y la retórica.
Aunque hemos asistido a la aparición de un mosaico de leyes y normativas destinadas a controlar la IA, entre las que destaca la EU AI ActSin embargo, muchas cuestiones clave siguen sin resolverse.
Como Francine Bennett, directora interina del Instituto Ada Lovelace, explicó a Reuters"El discurso político en torno a la IA se ha ampliado para incluir otras preocupaciones importantes, como la concentración del mercado y el impacto medioambiental".
El mayor alcance de la seguridad de la IA exige una deliberación amplia y muy subjetiva, que quizá no se produzca de forma natural en este entorno virtual.
Otro factor es que las tensiones geopolíticas entre las potencias occidentales y China siguen siendo una espina clavada en las negociaciones.
Mientras que el US y China han debatido sobre la seguridad de la IA en reuniones privadasotros grandes acontecimientos como el Foro Económico Mundial fue testigo de frías interacciones entre las dos potencias, incluido un abandono por parte del US delegación en una charla china.
Es probable que en esta cumbre virtual sobre seguridad, que durará 6 meses, se reflexione sobre los moderados avances logrados hasta ahora, pero aún no se han adoptado medidas prácticas contundentes en cuestiones clave.