O grupo ativista de segurança da IA PauseAI coordenou protestos globais para apelar a uma pausa no desenvolvimento de modelos de IA mais potentes do que o GPT-4.
Os manifestantes juntaram-se na segunda-feira em 14 cidades de todo o mundo, incluindo Nova Iorque, Londres, Sidney e São Paulo, para sensibilizar para os potenciais riscos da IA.
O objetivo declarado do protesto, de acordo com Sítio Web da PauseAI é "convencer os poucos indivíduos poderosos (ministros) que visitarão a próxima Cimeira sobre Segurança da IA (22 de maio) a serem os adultos na sala. Cabe-nos a nós fazê-los compreender que os riscos são demasiado grandes para serem ignorados, que eles são os únicos que têm o poder de resolver o problema".
Está a acontecer. O nosso segundo protesto internacional.https://t.co/FlF1y5jpO2 pic.twitter.com/RmOcRtbKiC
- PauseAI ⏸ (@PauseAI) 12 de maio de 2024
A Cimeira de Seul sobre a IA, que se realiza em 21 e 22 de maio, é o seguimento de seis meses da Cimeira de Cimeira de Segurança da IA do Reino Unido realizada em novembro passado. O entusiasmo inicial pela cooperação internacional em matéria de segurança da IA parece estar a vacilar, com vários participantes retiram-se da próxima cimeira.
A PauseAI é pragmática ao reconhecer que "não podemos esperar que os países ou as empresas arrisquem a sua vantagem competitiva fazendo uma pausa prolongada nos treinos de IA se outros países ou empresas não fizerem o mesmo. É por isso que precisamos de uma Pausa global".
Pretendem que o principal objetivo da próxima cimeira seja a criação de uma agência internacional de segurança da IA, semelhante à AIEA. Ironicamente, este é um objetivo que OpenAI DIRECTOR EXECUTIVO Sam Altman também sugeriu.
Os protestos da PauseAI, que exigiam a suspensão dos modelos mais avançados, tiveram lugar no mesmo dia em que OpenAI libertado GPT-4oA GPT-4 é uma iteração mais rápida e mais potente do seu modelo GPT-4.
Enquanto os fãs da IA se maravilhavam com as novas capacidades do GPT-4o, os manifestantes da PauseAI estavam menos entusiasmados com o crescimento exponencial dos novos modelos de IA.
Será que as manifestações, os cartazes e a distribuição de folhetos serão suficientes para persuadir os líderes mundiais a tomarem as medidas significativas de que a PauseAI diz que a humanidade precisa? Será que a marcha inexorável dos avanços da IA pode ser travada o tempo suficiente para garantir a existência de protecções de segurança para a IA?
O PauseAI pensa que é possível. Numa publicação no X, o grupo afirmou: "A AGI não é inevitável. Requer hordas de engenheiros com ordenados de milhões de dólares. Requer uma cadeia de fornecimento totalmente funcional e sem restrições do hardware mais complexo. Exige que todos nós permitamos que estas empresas joguem com o nosso futuro".
Os protestos têm sido eficazes para levar a cabo acções contra os alimentos OGM, as armas nucleares e as alterações climáticas. No entanto, os perigos inerentes a estas questões são mais amplamente aceites pelos líderes mundiais.
Os argumentos sobre as futuras questões de segurança da IA têm de competir com o crescente entusiasmo pelos benefícios tangíveis da IA que a humanidade está a experimentar neste momento.
Conseguirão os manifestantes da PauseAI atingir o seu objetivo e ganhar a gratidão da humanidade? Será que os seus receios acabarão por se revelar infundados? Ou serão eles que acabarão por dizer "bem vos avisámos".