Max Tegmark, professor do MIT, físico e cofundador do Instituto do Futuro da Vida, manifestou a sua preocupação com o ritmo incessante do desenvolvimento da IA.
O autor sugere que a intensa concorrência entre as empresas tecnológicas torna menos provável uma autorregulação sólida.
No espaço de apenas um ano, grandes empresas como a OpenAI e a Google lançaram pelo menos duas gerações de modelos de IA.
O GPT-4 representou uma enorme melhoria em relação ao GPT-3.5, superando a sua conta de parâmetros em cerca de cinco a 10 vezes
No início deste ano, Tegmark encabeçou uma carta aberta que apelava a uma pausa de seis meses no desenvolvimento de sistemas avançados de IA.
A carta recebeu o apoio maciço de líderes da indústria, políticos e várias figuras públicas, com mais de 30 000 signatários, incluindo Elon Musk e o cofundador da Apple, Steve Wozniak.
A carta descrevia claramente os perigos potenciais do desenvolvimento desenfreado da IA. Exortava os governos a intervir se os principais actores da IA, como a Google, a OpenAI, a Meta e a Microsoft, não conseguissem chegar a um consenso sobre a forma de aproveitar os benefícios da IA e, ao mesmo tempo, mitigar os seus riscos.
O Centro para a Segurança da IA (CAIS) comparou os riscos da IA a uma guerra nuclear
Na sequência dessa primeira carta, o CAIS emitiu uma declaração apoiada por numerosos líderes tecnológicos e académicos, que comparava os riscos sociais colocados pela IA com os das pandemias e da guerra nuclear.
O O comunicado do CAIS refereA atenuação do risco de extinção devido à IA deve ser uma prioridade global, a par de outros riscos à escala da sociedade, como as pandemias e a guerra nuclear".
No entanto, apesar do sentimento de que a autorregulação é necessária até que a regulamentação entre em vigor, a indústria tecnológica continuou em grande parte ao mesmo ritmo de avanço da IA.
Tegmark reflectiu sobre o impacto da carta e as razões do seu sucesso limitado em travar o desenvolvimento da IA, afirmando ao Guardian"Senti que, em privado, muitos dos líderes empresariais com quem falei queriam [uma pausa], mas estavam presos nesta corrida para o fundo do poço uns contra os outros. Portanto, nenhuma empresa pode fazer uma pausa sozinha".
No entanto, Tegmark observou que os debates em torno de uma maior sensibilização política para a segurança da IA estão a aumentar, apontando para as audiências do Senado dos EUA, a primeira de Chuck Schumer Fórum de Perceção da IAe o de novembro Cimeira Mundial sobre Segurança da IA no Reino Unido.
Olhando para o futuro, Tegmark alertou para o facto de não se encarar o desenvolvimento de uma "inteligência geral semelhante a um deus" como uma ameaça distante, referindo-se a alguns membros da comunidade de IA que acreditam que a sua concretização pode estar mais próxima do que muitos antecipam - nomeadamente, a OpenAI.
Tegmark concluiu salientando a importância das normas de segurança no desenvolvimento da IA e manifestou a sua preocupação com os modelos de IA de código aberto, como o Llama 2 da Meta.
Fazendo um paralelo com outras tecnologias potentes, advertiu: "A tecnologia perigosa não deve ser de fonte aberta, quer se trate de armas biológicas ou de software".