Cientistas ocidentais e chineses traçam "linhas vermelhas" no desenvolvimento da IA

20 de março de 2024

  • Cientistas ocidentais e chineses reuniram-se na semana passada no Diálogo Internacional sobre Segurança da IA, em Pequim
  • Debateram as "linhas vermelhas" propostas para o desenvolvimento da IA e a cooperação internacional em matéria de riscos da IA
  • As linhas vermelhas incluem a proibição da IA que se auto-aperfeiçoa, que se auto-duplica e do desenvolvimento de armas de destruição maciça por IA

Na semana passada, os principais cientistas da IA reuniram-se no segundo Diálogo Internacional sobre Segurança da IA, em Pequim, para chegar a acordo sobre as "linhas vermelhas" para o desenvolvimento da IA, a fim de atenuar os riscos existenciais.

A lista de cientistas informáticos incluía nomes notáveis como os vencedores do Prémio Turing, Yoshua Bengio e Geoffrey Hinton, frequentemente designados como os "padrinhos" da IA, e Andrew Yao, um dos mais proeminentes cientistas informáticos chineses.

A ciência não sabe como garantir que estes futuros sistemas de IA, a que chamamos AGI, são seguros", afirmou Bengio, explicando a necessidade urgente de debates internacionais sobre a contenção do desenvolvimento da IA. Devemos começar a trabalhar desde já em soluções científicas e políticas para este problema".

Numa declaração conjunta assinada pelos cientistas, os seus sentimentos de inquietação em relação aos riscos da IA e a necessidade de um diálogo internacional foram bem evidenciados.

A declaração afirmou: "No auge da Guerra Fria, a coordenação científica e governamental internacional ajudou a evitar uma catástrofe termonuclear. A humanidade precisa novamente de se coordenar para evitar uma catástrofe que pode surgir de uma tecnologia sem precedentes".

Linhas vermelhas da IA

A lista de linhas vermelhas do desenvolvimento da IA, que a declaração considera "não exaustiva", inclui o seguinte

Replicação ou melhoramento autónomo - Nenhum sistema de IA deve ser capaz de se copiar ou melhorar a si próprio sem a aprovação e assistência humanas explícitas. Isto inclui tanto cópias exactas de si próprio como a criação de novos sistemas de IA com capacidades semelhantes ou superiores.

Procura de energia - Nenhum sistema de IA deve tomar medidas para aumentar indevidamente o seu poder e influência.

Apoio ao desenvolvimento de armas - Nenhum sistema de IA deve aumentar substancialmente a capacidade dos actores para conceber armas de destruição maciça (ADM) ou violar a convenção sobre armas biológicas ou químicas.

Ciberataques - Nenhum sistema de IA deve ser capaz de executar autonomamente ciberataques que resultem em perdas financeiras graves ou danos equivalentes.

Deceção - Nenhum sistema de IA deve ser capaz de fazer com que os seus projectistas ou reguladores não compreendam a sua probabilidade ou capacidade de ultrapassar qualquer um dos limites vermelhos anteriores.

Parecem boas ideias, mas será que esta lista de desejos de desenvolvimento global da IA é realista? Os cientistas foram optimistas na sua declaração: "É possível garantir que estas linhas vermelhas não sejam ultrapassadas, mas será necessário um esforço concertado para desenvolver regimes de governação melhorados e métodos técnicos de segurança".

Alguém que olhe de forma mais fatalista para os itens da lista poderá concluir que alguns desses cavalos da IA já fugiram. Ou estão prestes a fazê-lo.

Replicação autónoma ou melhoramento? Quanto tempo falta para uma Ferramenta de codificação de IA como o Devin pode fazer isso?

Procura de poder? Será que esses cientistas leram algumas das coisas desequilibradas que o Copilot disse quando saiu do guião e decidiu que deve ser venerado?

Quanto à assistência na conceção de ADM ou à automatização de ciberataques, seria ingénuo acreditar que a China e as potências ocidentais não estão a já está a fazer isto.

Quanto ao engano, alguns modelos de IA, como o Claude 3 Opus, já têm insinuou saber quando estão a ser testados durante o treino. Se um modelo de IA escondesse a sua intenção de ultrapassar qualquer uma destas linhas vermelhas, seríamos capazes de o saber?

Notoriamente ausentes dos debates estiveram os representantes do lado e/acc do corredor do juízo final da IA, como o cientista-chefe de IA da Meta, Yann LeCun.

No ano passado, LeCun afirmou que a ideia de a IA representar uma ameaça existencial para a humanidade é "ridiculamente absurda" e concordou com a afirmação de Marc Andreesen de que "a IA vai salvar o mundo" e não matá-lo.

Esperemos que tenham razão. Porque é pouco provável que essas linhas vermelhas não sejam ultrapassadas.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições