AI-sikkerhedsaktivistgruppen PauseAI koordinerede globale protester for at opfordre til en pause i udviklingen af AI-modeller, der er kraftigere end GPT-4.
Mandag mødtes demonstranter i 14 byer rundt om i verden, bl.a. New York, London, Sydney og Sao Paulo, for at gøre opmærksom på potentielle risici ved kunstig intelligens.
Det erklærede mål med protesten ifølge PauseAI's hjemmeside er at "overbevise de få magtfulde personer (ministre), som vil besøge det næste AI Safety Summit (den 22. maj), om at være de voksne i lokalet. Det er op til os at få dem til at forstå, at risikoen er for stor til at blive ignoreret, og at de er de eneste, der har magten til at løse problemet."
Nu sker det. Vores anden internationale protest.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12. maj 2024
AI Seoul Summit, som finder sted den 21. og 22. maj, er 6-måneders opfølgningen på AI Seoul Summit. Britisk topmøde om AI-sikkerhed der blev afholdt i november sidste år. Den oprindelige begejstring for internationalt samarbejde om AI-sikkerhed ser ud til at vakle, med flere deltagere trækker sig fra det kommende topmøde.
PauseAI er pragmatisk og anerkender, at "vi ikke kan forvente, at lande eller virksomheder risikerer deres konkurrencefordel ved at sætte AI-træningskørsler på pause i lang tid, hvis andre lande eller virksomheder ikke gør det samme. Det er derfor, vi har brug for en global pause."
De ønsker, at det primære mål for det kommende topmøde skal være oprettelsen af et internationalt AI-sikkerhedsagentur i stil med IAEA. Ironisk nok er det noget, som OpenAI ADMINISTRERENDE DIREKTØR Sam Altman foreslog også.
PauseAI's protester, der krævede et stop for mere avancerede modeller, fandt sted samme dag, som OpenAI frigivet GPT-4oDet er en hurtigere og mere kraftfuld udgave af GPT-4-modellen.
Mens AI-fans var begejstrede for GPT-4os nye evner, var PauseAI-demonstranterne mindre begejstrede for den eksponentielle vækst i nye AI-modeller.
Vil sit-ins, plakater og uddeling af løbesedler være nok til at overtale verdens ledere til at tage de meningsfulde skridt, som PauseAI siger, at menneskeheden har brug for? Kan den ubønhørlige march af AI-fremskridt stoppes længe nok til at sikre, at AI-sikkerhedsforanstaltningerne er på plads?
PauseAI mener, at det er muligt. I et indlæg på X sagde gruppen: "AGI er ikke uundgåeligt. Det kræver horder af ingeniører med lønninger i millionklassen. Det kræver en fuldt funktionsdygtig og ubegrænset forsyningskæde af den mest komplekse hardware. Det kræver, at vi alle tillader disse virksomheder at spille hasard med vores fremtid."
Protester har været effektive til at skabe handling mod GMO-fødevarer, atomvåben og klimaforandringer. Men de iboende farer ved disse emner er mere bredt accepteret af verdens ledere.
Argumenterne om fremtidige AI-sikkerhedsspørgsmål skal konkurrere med den voksende begejstring over de konkrete AI-fordele, som menneskeheden oplever lige nu.
Vil PauseAI-demonstranterne nå deres mål og gøre sig fortjent til menneskehedens taknemmelighed? Vil deres frygt i sidste ende vise sig at være ubegrundet? Eller vil de være dem, der til sidst siger "Hvad sagde vi?".