Professor do MIT destaca os riscos do desenvolvimento intenso da IA

25 de setembro de 2023

IA DO MIT

Max Tegmark, professor do MIT, físico e cofundador do Instituto do Futuro da Vida, manifestou a sua preocupação com o ritmo incessante do desenvolvimento da IA. 

O autor sugere que a intensa concorrência entre as empresas tecnológicas torna menos provável uma autorregulação sólida. 

No espaço de apenas um ano, grandes empresas como a OpenAI e a Google lançaram pelo menos duas gerações de modelos de IA. 

O GPT-4 representou uma enorme melhoria em relação ao GPT-3.5, superando a sua conta de parâmetros em cerca de cinco a 10 vezes 

No início deste ano, Tegmark encabeçou uma carta aberta que apelava a uma pausa de seis meses no desenvolvimento de sistemas avançados de IA.

A carta recebeu o apoio maciço de líderes da indústria, políticos e várias figuras públicas, com mais de 30 000 signatários, incluindo Elon Musk e o cofundador da Apple, Steve Wozniak.

A carta descrevia claramente os perigos potenciais do desenvolvimento desenfreado da IA. Exortava os governos a intervir se os principais actores da IA, como a Google, a OpenAI, a Meta e a Microsoft, não conseguissem chegar a um consenso sobre a forma de aproveitar os benefícios da IA e, ao mesmo tempo, mitigar os seus riscos. 

O Centro para a Segurança da IA (CAIS) comparou os riscos da IA a uma guerra nuclear

Na sequência dessa primeira carta, o CAIS emitiu uma declaração apoiada por numerosos líderes tecnológicos e académicos, que comparava os riscos sociais colocados pela IA com os das pandemias e da guerra nuclear. 

O O comunicado do CAIS refereA atenuação do risco de extinção devido à IA deve ser uma prioridade global, a par de outros riscos à escala da sociedade, como as pandemias e a guerra nuclear".

No entanto, apesar do sentimento de que a autorregulação é necessária até que a regulamentação entre em vigor, a indústria tecnológica continuou em grande parte ao mesmo ritmo de avanço da IA. 

Tegmark reflectiu sobre o impacto da carta e as razões do seu sucesso limitado em travar o desenvolvimento da IA, afirmando ao Guardian"Senti que, em privado, muitos dos líderes empresariais com quem falei queriam [uma pausa], mas estavam presos nesta corrida para o fundo do poço uns contra os outros. Portanto, nenhuma empresa pode fazer uma pausa sozinha".

No entanto, Tegmark observou que os debates em torno de uma maior sensibilização política para a segurança da IA estão a aumentar, apontando para as audiências do Senado dos EUA, a primeira de Chuck Schumer Fórum de Perceção da IAe o de novembro Cimeira Mundial sobre Segurança da IA no Reino Unido.

Olhando para o futuro, Tegmark alertou para o facto de não se encarar o desenvolvimento de uma "inteligência geral semelhante a um deus" como uma ameaça distante, referindo-se a alguns membros da comunidade de IA que acreditam que a sua concretização pode estar mais próxima do que muitos antecipam - nomeadamente, a OpenAI.

Tegmark concluiu salientando a importância das normas de segurança no desenvolvimento da IA e manifestou a sua preocupação com os modelos de IA de código aberto, como o Llama 2 da Meta. 

Fazendo um paralelo com outras tecnologias potentes, advertiu: "A tecnologia perigosa não deve ser de fonte aberta, quer se trate de armas biológicas ou de software".

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições