Il gruppo di attivisti per la sicurezza dell'IA PauseAI ha coordinato le proteste a livello globale per chiedere una pausa nello sviluppo di modelli di IA più potenti del GPT-4.
I manifestanti si sono riuniti lunedì in 14 città del mondo, tra cui New York, Londra, Sydney e San Paolo, per sensibilizzare l'opinione pubblica sui potenziali rischi dell'IA.
L'obiettivo dichiarato della protesta, secondo Sito web di PauseAI è quello di "convincere i pochi potenti (ministri) che visiteranno il prossimo vertice sulla sicurezza dell'IA (il 22 maggio) a essere gli adulti nella stanza. Sta a noi far capire loro che i rischi sono troppo grandi per essere ignorati, che sono gli unici ad avere il potere di risolvere il problema".
Sta accadendo. La nostra seconda protesta internazionale.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12 maggio 2024
Il Vertice AI di Seul, che si terrà il 21 e 22 maggio, è il seguito di sei mesi del Vertice AI di Seul. Vertice sulla sicurezza dell'intelligenza artificiale nel Regno Unito tenutasi lo scorso novembre. L'entusiasmo iniziale per la cooperazione internazionale sulla sicurezza dell'intelligenza artificiale sembra vacillare, con più partecipanti che si ritirano dal prossimo vertice.
PauseAI è pragmatico nel riconoscere che "non possiamo aspettarci che i Paesi o le aziende rischino il loro vantaggio competitivo mettendo in pausa l'addestramento dell'IA per un lungo periodo se altri Paesi o aziende non fanno lo stesso. Ecco perché abbiamo bisogno di una Pause globale".
L'obiettivo principale del prossimo vertice dovrebbe essere l'istituzione di un'agenzia internazionale per la sicurezza dell'IA, simile all'AIEA. Ironia della sorte, si tratta di qualcosa che OpenAI AMMINISTRATORE DELEGATO Sam Altman ha anche suggerito.
Le proteste di PauseAI che chiedevano di fermare i modelli più avanzati si sono svolte lo stesso giorno in cui OpenAI rilasciato GPT-4o, la sua iterazione più veloce e più potente del modello GPT-4.
Mentre i fan dell'IA si sono meravigliati delle nuove capacità di GPT-4o, i contestatori di PauseAI erano meno entusiasti della crescita esponenziale di nuovi modelli di IA.
Saranno sufficienti sit-in, cartelli e volantinaggi per convincere i leader mondiali a intraprendere le azioni significative di cui PauseAI dice che l'umanità ha bisogno? È possibile fermare l'inesorabile marcia dei progressi dell'IA per un tempo sufficiente a garantire la presenza di barriere di sicurezza per l'IA?
PauseAI pensa che sia possibile. In un post su X, il gruppo ha dichiarato: "L'intelligenza artificiale non è inevitabile. Richiede orde di ingegneri con stipendi milionari. Richiede una catena di fornitura completamente funzionale e senza restrizioni dell'hardware più complesso. Richiede che tutti noi permettiamo a queste aziende di giocare d'azzardo con il nostro futuro".
Le proteste sono state efficaci nel portare avanti azioni contro gli alimenti OGM, le armi nucleari e il cambiamento climatico. Ma i pericoli intrinseci di questi temi sono più ampiamente accettati dai leader mondiali.
Le discussioni sui futuri problemi di sicurezza dell'IA devono competere con il crescente entusiasmo per i benefici tangibili dell'IA che l'umanità sta sperimentando in questo momento.
Riusciranno i manifestanti di PauseAI a raggiungere il loro obiettivo e a guadagnarsi la gratitudine dell'umanità? I loro timori si riveleranno alla fine infondati? O saranno loro a dire "Ve l'avevamo detto".