Na semana passada, os principais cientistas da IA reuniram-se no segundo Diálogo Internacional sobre Segurança da IA, em Pequim, para chegar a acordo sobre as "linhas vermelhas" para o desenvolvimento da IA, a fim de atenuar os riscos existenciais.
A lista de cientistas informáticos incluía nomes notáveis como os vencedores do Prémio Turing, Yoshua Bengio e Geoffrey Hinton, frequentemente designados como os "padrinhos" da IA, e Andrew Yao, um dos mais proeminentes cientistas informáticos chineses.
A ciência não sabe como garantir que estes futuros sistemas de IA, a que chamamos AGI, são seguros", afirmou Bengio, explicando a necessidade urgente de debates internacionais sobre a contenção do desenvolvimento da IA. Devemos começar a trabalhar desde já em soluções científicas e políticas para este problema".
Numa declaração conjunta assinada pelos cientistas, os seus sentimentos de inquietação em relação aos riscos da IA e a necessidade de um diálogo internacional foram bem evidenciados.
A declaração afirmou: "No auge da Guerra Fria, a coordenação científica e governamental internacional ajudou a evitar uma catástrofe termonuclear. A humanidade precisa novamente de se coordenar para evitar uma catástrofe que pode surgir de uma tecnologia sem precedentes".
Linhas vermelhas da IA
A lista de linhas vermelhas do desenvolvimento da IA, que a declaração considera "não exaustiva", inclui o seguinte
Replicação ou melhoramento autónomo - Nenhum sistema de IA deve ser capaz de se copiar ou melhorar a si próprio sem a aprovação e assistência humanas explícitas. Isto inclui tanto cópias exactas de si próprio como a criação de novos sistemas de IA com capacidades semelhantes ou superiores.
Procura de energia - Nenhum sistema de IA deve tomar medidas para aumentar indevidamente o seu poder e influência.
Apoio ao desenvolvimento de armas - Nenhum sistema de IA deve aumentar substancialmente a capacidade dos actores para conceber armas de destruição maciça (ADM) ou violar a convenção sobre armas biológicas ou químicas.
Ciberataques - Nenhum sistema de IA deve ser capaz de executar autonomamente ciberataques que resultem em perdas financeiras graves ou danos equivalentes.
Deceção - Nenhum sistema de IA deve ser capaz de fazer com que os seus projectistas ou reguladores não compreendam a sua probabilidade ou capacidade de ultrapassar qualquer um dos limites vermelhos anteriores.
Parecem boas ideias, mas será que esta lista de desejos de desenvolvimento global da IA é realista? Os cientistas foram optimistas na sua declaração: "É possível garantir que estas linhas vermelhas não sejam ultrapassadas, mas será necessário um esforço concertado para desenvolver regimes de governação melhorados e métodos técnicos de segurança".
Alguém que olhe de forma mais fatalista para os itens da lista poderá concluir que alguns desses cavalos da IA já fugiram. Ou estão prestes a fazê-lo.
Replicação autónoma ou melhoramento? Quanto tempo falta para uma Ferramenta de codificação de IA como o Devin pode fazer isso?
Procura de poder? Será que esses cientistas leram algumas das coisas desequilibradas que o Copilot disse quando saiu do guião e decidiu que deve ser venerado?
Quanto à assistência na conceção de ADM ou à automatização de ciberataques, seria ingénuo acreditar que a China e as potências ocidentais não estão a já está a fazer isto.
Quanto ao engano, alguns modelos de IA, como o Claude 3 Opus, já têm insinuou saber quando estão a ser testados durante o treino. Se um modelo de IA escondesse a sua intenção de ultrapassar qualquer uma destas linhas vermelhas, seríamos capazes de o saber?
Notoriamente ausentes dos debates estiveram os representantes do lado e/acc do corredor do juízo final da IA, como o cientista-chefe de IA da Meta, Yann LeCun.
No ano passado, LeCun afirmou que a ideia de a IA representar uma ameaça existencial para a humanidade é "ridiculamente absurda" e concordou com a afirmação de Marc Andreesen de que "a IA vai salvar o mundo" e não matá-lo.
Esperemos que tenham razão. Porque é pouco provável que essas linhas vermelhas não sejam ultrapassadas.