El grupo activista por la seguridad de la IA PauseAI coordinó protestas mundiales para pedir una pausa en el desarrollo de modelos de IA más potentes que GPT-4.
Los manifestantes se reunieron el lunes en 14 ciudades de todo el mundo, entre ellas Nueva York, Londres, Sydney y Sao Paulo, para concienciar sobre los posibles riesgos de la IA.
El objetivo declarado de la protesta, según Sitio web de PauseAI es "convencer a los pocos individuos poderosos (ministros) que visitarán la próxima Cumbre sobre Seguridad de la IA (el 22 de mayo) para que sean los adultos en la sala. Depende de nosotros hacerles comprender que los riesgos son demasiado grandes para ignorarlos, que son los únicos que tienen poder para solucionar el problema".
Está ocurriendo. Nuestra segunda protesta internacional.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12 de mayo de 2024
La Cumbre de AI de Seúl, que se celebrará los días 21 y 22 de mayo, es el seguimiento semestral del Cumbre británica sobre seguridad de la IA celebrado el pasado mes de noviembre. El entusiasmo inicial por la cooperación internacional en materia de seguridad de la IA parece tambalearse, con varios participantes se retiran de la próxima cumbre.
PauseAI es pragmática al reconocer que "no podemos esperar que los países o las empresas arriesguen su ventaja competitiva pausando los entrenamientos de IA durante mucho tiempo si otros países o empresas no hacen lo mismo. Por eso necesitamos una Pausa global".
Quieren que el objetivo principal de la próxima cumbre sea la creación de una agencia internacional de seguridad de la IA, similar al OIEA. Irónicamente, esto es algo que OpenAI DIRECTOR GENERAL Sam Altman también sugirió.
Las protestas de PauseAI pidiendo el cese de los modelos más avanzados tuvieron lugar el mismo día que OpenAI liberado GPT-4osu iteración más rápida y potente de su modelo GPT-4.
Mientras los aficionados a la IA se maravillaban con las nuevas capacidades de GPT-4o, los manifestantes de PauseAI se mostraban menos entusiastas ante el crecimiento exponencial de los nuevos modelos de IA.
¿Serán suficientes las sentadas, las pancartas y la distribución de folletos para convencer a los líderes mundiales de que tomen las medidas significativas que, según PauseAI, necesita la humanidad? ¿Podrá detenerse la inexorable marcha de los avances de la inteligencia artificial el tiempo suficiente para garantizar la existencia de barreras de seguridad?
PauseAI cree que es posible. En un post sobre X, el grupo afirma: "La AGI no es inevitable. Requiere hordas de ingenieros con sueldos millonarios. Requiere una cadena de suministro totalmente funcional y sin restricciones del hardware más complejo. Requiere que todos permitamos que estas empresas jueguen con nuestro futuro".
Las protestas han conseguido que se tomen medidas contra los alimentos transgénicos, las armas nucleares y el cambio climático. Sin embargo, los peligros inherentes a estas cuestiones son más ampliamente aceptados por los líderes mundiales.
Los argumentos sobre los futuros problemas de seguridad de la IA tienen que competir con el creciente entusiasmo por los beneficios tangibles de la IA que la humanidad está experimentando ahora mismo.
¿Conseguirán los manifestantes de PauseAI su objetivo y se ganarán la gratitud de la humanidad? ¿Resultarán infundados sus temores? ¿O serán ellos los que finalmente digan "Os lo dijimos"?