De AI-activistengroep PauseAI coördineerde wereldwijde protesten om op te roepen tot een pauze in de ontwikkeling van AI-modellen die krachtiger zijn dan GPT-4.
Demonstranten kwamen maandag samen in 14 steden over de hele wereld, waaronder New York, Londen, Sydney en Sao Paulo om mensen bewust te maken van de potentiële risico's van AI.
Het verklaarde doel van het protest volgens De website van PauseAI is om "de paar machtige personen (ministers) die de volgende AI Safety Summit (22 mei) zullen bezoeken ervan te overtuigen dat zij de volwassenen in de kamer moeten zijn. Het is aan ons om hen te laten begrijpen dat de risico's te groot zijn om te negeren, dat zij de enigen zijn die de macht hebben om het probleem op te lossen."
Het gaat gebeuren. Ons tweede internationale protest.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12 mei 2024
De AI-top in Seoul, die plaatsvindt op 21 en 22 mei, is de 6-maandelijkse follow-up van de Top over AI-veiligheid in het Verenigd Koninkrijk die afgelopen november werd gehouden. Het aanvankelijke enthousiasme voor internationale samenwerking op het gebied van AI-veiligheid lijkt af te nemen, met meerdere deelnemers trekken zich terug uit de komende top.
PauseAI erkent pragmatisch dat "we niet kunnen verwachten dat landen of bedrijven hun concurrentievoordeel op het spel zetten door AI-trainingen lange tijd te pauzeren als andere landen of bedrijven niet hetzelfde doen. Daarom hebben we een wereldwijde Pause nodig."
Ze willen dat het belangrijkste doel van de komende top de oprichting is van een internationaal AI veiligheidsagentschap, vergelijkbaar met de IAEA. Ironisch genoeg is dit iets dat OpenAI CEO Sam Altman stelde ook voor.
De protesten van PauseAI die opriepen tot een stop op geavanceerdere modellen vonden plaats op dezelfde dag dat OpenAI GPT-4o vrijgegevenHet is een snellere en krachtigere versie van het GPT-4 model.
Terwijl AI-fans zich verwonderden over de nieuwe mogelijkheden van GPT-4o, waren de PauseAI demonstranten minder enthousiast over de exponentiële groei van nieuwe AI-modellen.
Zullen sit-ins, plakkaten en het uitdelen van pamfletten genoeg zijn om de wereldleiders over te halen om de zinvolle actie te ondernemen die de mensheid volgens PauseAI nodig heeft? Kan de onstuitbare opmars van AI lang genoeg worden tegengehouden om ervoor te zorgen dat er veiligheidsrails voor AI zijn?
PauseAI denkt dat het mogelijk is. In een bericht op X zegt de groep: "AGI is niet onvermijdelijk. Het vereist hordes ingenieurs met miljoenensalarissen. Het vereist een volledig functionele en onbeperkte toeleveringsketen van de meest complexe hardware. Het vereist van ons allemaal dat we deze bedrijven toestaan om te gokken met onze toekomst."
Protesten zijn effectief geweest in het bewerkstelligen van actie tegen GMO-voedsel, kernwapens en klimaatverandering. Maar de inherente gevaren van deze kwesties worden meer algemeen geaccepteerd door wereldleiders.
De argumenten over toekomstige AI-veiligheidskwesties moeten concurreren met de groeiende opwinding over tastbare AI-voordelen die de mensheid op dit moment ervaart.
Zullen de PauseAI demonstranten hun doel bereiken en de dankbaarheid van de mensheid verdienen? Zullen hun angsten uiteindelijk ongegrond blijken te zijn? Of zullen zij degenen zijn die uiteindelijk zeggen: "We zeiden het toch."