AI-sikkerhetsaktivistgruppen PauseAI koordinerte globale protester for å kreve en pause i utviklingen av AI-modeller som er kraftigere enn GPT-4.
Mandag samlet demonstranter seg i 14 byer rundt om i verden, deriblant New York, London, Sydney og São Paulo, for å øke bevisstheten om potensielle risikoer knyttet til kunstig intelligens.
Det uttalte målet med protesten var ifølge PauseAIs nettsted er å "overbevise de få mektige personene (statsrådene) som kommer til neste AI Safety Summit (22. mai) om å være de voksne i rommet. Det er opp til oss å få dem til å forstå at risikoen er for stor til å ignorere, og at de er de eneste som har makt til å løse problemet."
Nå skjer det. Vår andre internasjonale protest.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12. mai 2024
AI Seoul Summit, som finner sted 21. og 22. mai, er den seks måneder lange oppfølgingen av UK AI Safety Summit som ble avholdt i november i fjor. Den opprinnelige entusiasmen for internasjonalt samarbeid om AI-sikkerhet ser ut til å ha avtatt, med flere deltakere trekker seg fra det kommende toppmøtet.
PauseAI er pragmatisk, for "vi kan ikke forvente at land eller selskaper skal risikere sine konkurransefortrinn ved å sette AI-treningskjøringer på pause i lang tid hvis ikke andre land eller selskaper gjør det samme. Det er derfor vi trenger en global Pause."
De ønsker at hovedmålet for det kommende toppmøtet skal være opprettelsen av et internasjonalt AI-sikkerhetsbyrå, på linje med IAEA. Ironisk nok er dette noe som OpenAI ADMINISTRERENDE DIREKTØR Sam Altman foreslo også.
PauseAIs protester med krav om stans i utviklingen av mer avanserte modeller fant sted samme dag som OpenAI utgitt GPT-4o, den raskere og kraftigere utgaven av GPT-4-modellen.
Mens AI-fans var begeistret over GPT-4os nye muligheter, var PauseAI-demonstrantene mindre entusiastiske over den eksponentielle veksten i nye AI-modeller.
Vil sit-ins, plakater og utdeling av løpesedler være nok til å overtale verdens ledere til å ta de meningsfulle grepene PauseAI mener menneskeheten trenger? Kan den ubønnhørlige utviklingen av kunstig intelligens stoppes lenge nok til å sikre at sikkerhetsbarrierer for kunstig intelligens er på plass?
PauseAI mener det er mulig. I et innlegg på X skrev gruppen: "AGI er ikke uunngåelig. Det krever horder av ingeniører med millionlønninger. Det krever en fullt funksjonell og ubegrenset forsyningskjede av den mest komplekse maskinvaren. Det krever at vi alle tillater disse selskapene å gamble med fremtiden vår."
Protester har vært effektive når det gjelder å få til tiltak mot GMO-mat, atomvåpen og klimaendringer. Men de iboende farene ved disse problemene er mer allment akseptert av verdens ledere.
Argumentene om fremtidige sikkerhetsspørsmål knyttet til kunstig intelligens må konkurrere med den økende begeistringen over de konkrete fordelene som menneskeheten opplever akkurat nå.
Vil PauseAI-demonstrantene nå sitt mål og gjøre seg fortjent til menneskehetens takknemlighet? Vil frykten deres til slutt vise seg å være ubegrunnet? Eller vil det være de som til slutt sier "hva var det vi sa"?