Três debates que a indústria da IA enfrenta: Inteligência, progresso e segurança

22 de março de 2024

O famoso ditado: "Quanto mais sabemos, mais não sabemos", soa certamente verdadeiro para a IA.

Quanto mais aprendemos sobre a IA, menos parece que sabemos ao certo.

Os especialistas e os líderes da indústria encontram-se frequentemente em desacordo sobre o estado atual da IA e o seu futuro. Não conseguem chegar a acordo sobre conceitos aparentemente elementares como inteligência artificial, consciência e segurança.

Será que um dia as máquinas ultrapassarão o intelecto dos seus criadores humanos? O avanço da IA está a acelerar em direção a uma singularidade tecnológica ou estamos à beira de um inverno da IA?

E, talvez o mais importante, como é que podemos garantir que o desenvolvimento da IA continua a ser seguro e benéfico quando os especialistas não conseguem chegar a acordo sobre o que o futuro nos reserva?

A IA está imersa num nevoeiro de incerteza. O melhor que podemos fazer é explorar perspectivas e chegar a pontos de vista informados, mas fluidos, para um sector em constante evolução.

Primeiro debate: Inteligência da IA

Com cada nova geração de modelos de IA generativa surge um debate renovado sobre a inteligência das máquinas.

Elon Musk alimentou recentemente o debate sobre a inteligência da IA quando afirmou: "A IA será provavelmente mais inteligente do que qualquer ser humano no próximo ano. Em 2029, a IA será provavelmente mais inteligente do que todos os humanos juntos".

Musk foi imediatamente contestado pelo cientista-chefe de IA da Meta e eminente investigador de IA, Yann LeCun, que afirmou: "Não. Se fosse esse o caso, teríamos sistemas de IA que poderiam aprender sozinhos a conduzir um carro em 20 horas de prática, como qualquer jovem de 17 anos. Mas ainda não temos uma condução autónoma totalmente autónoma e fiável, apesar de termos milhões de horas de dados de treino *rotulados*".

Esta conversa indica apenas um microcosmo de um vazio ambíguo na opinião dos especialistas e líderes em IA.

É uma conversa que conduz a uma espiral interminável de interpretações com pouco consensocomo demonstram os pontos de vista extremamente contrastantes de tecnólogos influentes ao longo do último ano (informações de Melhorar as notícias):

  • Geoffrey Hinton: A "inteligência digital" poderá ultrapassar-nos dentro de "5 a 20 anos".
  • Yann LeCun: É mais provável que a sociedade venha a ter uma IA de "nível de gato" ou de "nível de cão" anos antes da IA de nível humano.
  • Demis Hassabis: Poderemos conseguir "algo como AGI ou semelhante a AGI na próxima década".
  • Gary Marcus: "Acabaremos por atingir a AGI... e muito possivelmente antes do final deste século".
  • Geoffrey Hinton: "A IA atual, como a GPT-4, "eclipsa uma pessoa" em termos de conhecimentos gerais e poderá em breve fazê-lo também em termos de raciocínio.
  • Geoffrey Hinton: A IA está "muito perto disso agora" e será "muito mais inteligente do que nós no futuro".
  • Elon Musk: "Teremos, pela primeira vez, algo que é mais inteligente do que o ser humano mais inteligente."
  • Elon Musk: "Ficaria surpreendido se não tivéssemos AGI em [2029]."
  • Sam Altman: "Poderemos chegar a uma verdadeira AGI na próxima década."
  • Yoshua Bengio: As "IAs sobre-humanas" serão alcançadas "entre alguns anos e algumas décadas".
  • Dario Amodei: A IA "a nível humano" poderá ocorrer dentro de "dois ou três anos".
  • Sam Altman: A IA poderá ultrapassar o "nível de competências especializadas" na maioria dos domínios dentro de uma década.
  • Gary Marcus: "Não creio que estejamos assim tão próximos de máquinas mais inteligentes do que nós".

Nenhuma das partes está inequivocamente certa ou errada no debate sobre a inteligência das máquinas. Tudo depende da interpretação subjectiva que cada um faz da inteligência e da forma como os sistemas de IA são avaliados em relação a essa definição.

Os pessimistas podem apontar para os potenciais riscos e consequências indesejadas da IA, sublinhando a necessidade de cautela. Argumentam que, à medida que os sistemas de IA se tornam mais autónomos e poderosos, podem desenvolver objectivos e comportamentos desalinhados com os valores humanos, conduzindo a resultados catastróficos.

Por outro lado, os optimistas podem centrar-se no potencial transformador da IA, imaginando um futuro em que as máquinas trabalhem lado a lado com os humanos para resolver problemas complexos e impulsionar a inovação. Podem minimizar os riscos, argumentando que as preocupações com a IA superinteligente são em grande parte hipotéticas e que os benefícios superam os riscos.

O cerne da questão reside na dificuldade de definir e quantificar a inteligência, especialmente quando se comparam entidades tão díspares como os seres humanos e as máquinas.

Por exemplo, um A mosca tem circuitos neuronais avançados e consegue iludir as nossas tentativas de a abater ou apanhar, sendo mais esperta do que nós neste domínio restrito. Este tipo de comparações é potencialmente ilimitado.

Escolham os vossos exemplos de inteligência, e todos podem estar certos ou errados.

Segundo debate: a IA está a acelerar ou a abrandar?

O avanço da IA está destinado a acelerar ou a estabilizar e abrandar?

Há quem defenda que estamos a meio de uma revolução da IA, com descobertas a progredir a passos largos. Outros afirmam que os progressos atingiram um patamar e que o sector enfrenta desafios importantes que poderão abrandar a inovação nos próximos anos.

A IA generativa é o culminar de décadas de investigação e de milhares de milhões em financiamento. Quando o ChatGPT aterrou em 2022, a tecnologia já tinha atingido um nível elevado em ambientes de investigação, colocando a fasquia alta e atirando a sociedade para o fundo do poço.

O entusiasmo que daí resultou também levou a um enorme financiamento de start-ups de IA, da Anthropic à Inflection e da Stability AI à MidJourney.

Este facto, combinado com os enormes esforços internos dos veteranos de Silicon Valley Meta, Google, Amazon, Nvidia e Microsoft, resultou numa rápida proliferação de ferramentas de IA. A GPT-3 transformou-se rapidamente na pesada GPT-4. Entretanto, concorrentes como LLMs como Claude 3 Opus, Grok da xAI e Mistrale os modelos de código aberto da Meta também deixaram a sua marca.

Alguns especialistas e tecnólogos, como Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis e Elon Musk, consideram que a aceleração da IA está apenas a começar.

Musk disse que a IA generativa era como "acordar o demónio", enquanto Altman disse que o controlo mental da IA era iminente (o que Musk evidenciou com os recentes avanços do Neuralink; ver abaixo como um homem jogou uma partida de xadrez apenas com o pensamento).

Por outro lado, especialistas como Gary Marcus e Yann LeCun sentem que estamos a bater em paredes de tijolo, com a IA generativa a enfrentar um período de introspeção ou "inverno".

Tal resultaria de obstáculos práticos, como o aumento dos custos da energia, as limitações da computação de força bruta, a regulamentação e a escassez de materiais.

O desenvolvimento e a manutenção da IA generativa são dispendiosos e a monetização não é simples. As empresas tecnológicas têm de encontrar formas de manter a inércia para que o dinheiro continue a entrar no sector.

Terceiro debate: Segurança da IA

As conversas sobre a inteligência e o progresso da IA também têm implicações para a segurança da IA. Se não conseguimos chegar a acordo sobre o que constitui a inteligência ou sobre a forma de a medir, como podemos garantir que os sistemas de IA são concebidos e utilizados em segurança?

A ausência de uma compreensão partilhada da inteligência torna difícil estabelecer medidas de segurança adequadas e orientações éticas para o desenvolvimento da IA.

Subestimar a inteligência da IA é subestimar a necessidade de controlos e regulamentação da segurança da IA.

Por outro lado, sobrestimar ou exagerar as capacidades da IA distorce as percepções e arrisca-se a uma regulamentação excessiva. Esta situação poderia isolar o poder das grandes empresas de tecnologia, que têm uma influência comprovada no lobbying e na manobra da legislação. E quando cometem um erro, podem pagar as coimas.

No ano passado, debates prolongados X entre Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk e muitas outras figuras proeminentes da comunidade da IA, pôs em evidência divisões profundas na segurança da IA. A Big Tech tem trabalhado arduamente na autorregulação, criando "directrizes voluntárias" cuja eficácia é duvidosa.

Os críticos argumentam ainda que a regulamentação permite às grandes empresas de tecnologia reforçar as estruturas de mercadoA empresa tem de se livrar dos perturbadores e definir as condições de jogo do sector a seu gosto.

Neste lado do debate, LeCun argumenta que os riscos existenciais da IA foram exagerados e estão a ser utilizados como uma cortina de fumo pelas grandes empresas de tecnologia para pressionar por regulamentos que sufocariam a concorrência e consolidariam o controlo.

LeCun e os seus apoiantes também salientam que os riscos imediatos da IA, como a desinformação, as falsificações profundas e a parcialidade, já estão a prejudicar as pessoas e exigem uma atenção urgente.

Por outro lado, Hinton, Bengio, Hassabis e Musk fizeram soar o alarme sobre os potenciais riscos existenciais da IA.

Bengio, LeCun e Hinton, frequentemente conhecidos como os "padrinhos da IA" por terem desenvolvido redes neuronais, aprendizagem profunda e outras técnicas de IA ao longo dos anos 90 e no início dos anos 2000, continuam a ser influentes atualmente. Hinton e Bengio, cujos pontos de vista estão geralmente alinhados, participaram numa rara reunião recente entre investigadores americanos e chineses no Diálogo internacional sobre segurança da IA em Pequim.

A reunião culminou numa declaração: "No auge da Guerra Fria, a coordenação científica e governamental internacional ajudou a evitar uma catástrofe termonuclear. A humanidade precisa novamente de se coordenar para evitar uma catástrofe que pode surgir de uma tecnologia sem precedentes."

É preciso dizer que Bengio e Hinton não estão obviamente alinhados financeiramente com as grandes empresas de tecnologia e não têm motivos para exagerar nos riscos da IA.

O próprio Hinton levantou esta questão numa discussão com LeCun e o antigo cofundador do Google Brain, Andrew Ng, sublinhando que este deixou a Google para falar livremente sobre os riscos da IA.

De facto, muitos grandes cientistas têm questionado a segurança da IA ao longo dos anos, incluindo o falecido Prof. Stephen Hawking, que via a tecnologia como um risco existencial.

Esta mistura de trocas polémicas deixa pouco espaço para as pessoas ocuparem o meio-termo, alimentando a imagem da IA generativa como uma tecnologia polarizadora.

A regulamentação da IA, entretanto, tem tornar-se uma questão geopolíticaA China e os EUA estão a tentar colaborar na segurança da IA, apesar da escalada de tensões noutros departamentos.

Assim, tal como os especialistas discordam sobre quando e como a IA ultrapassará as capacidades humanas, também diferem nas suas avaliações dos riscos e desafios do desenvolvimento de sistemas de IA seguros e benéficos.

Os debates em torno da inteligência da IA não são apenas de natureza filosófica ou de princípios - são também uma questão de governação.

Quando os especialistas discordam veementemente até sobre os elementos básicos da inteligência e segurança da IA, a regulamentação não pode servir os interesses das pessoas.

A criação de consensos exigirá uma tomada de consciência difícil por parte dos peritos, dos criadores de IA, dos governos e da sociedade em geral.

No entanto, para além de muitos outros desafios, conduzir a IA para o futuro exigirá que alguns líderes tecnológicos e especialistas admitam que estavam errados. E isso não vai ser fácil.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições