O famoso ditado: "Quanto mais sabemos, mais não sabemos", soa certamente verdadeiro para a IA.
Quanto mais aprendemos sobre a IA, menos parece que sabemos ao certo.
Os especialistas e os líderes da indústria encontram-se frequentemente em desacordo sobre o estado atual da IA e o seu futuro. Não conseguem chegar a acordo sobre conceitos aparentemente elementares como inteligência artificial, consciência e segurança.
Será que um dia as máquinas ultrapassarão o intelecto dos seus criadores humanos? O avanço da IA está a acelerar em direção a uma singularidade tecnológica ou estamos à beira de um inverno da IA?
E, talvez o mais importante, como é que podemos garantir que o desenvolvimento da IA continua a ser seguro e benéfico quando os especialistas não conseguem chegar a acordo sobre o que o futuro nos reserva?
A IA está imersa num nevoeiro de incerteza. O melhor que podemos fazer é explorar perspectivas e chegar a pontos de vista informados, mas fluidos, para um sector em constante evolução.
Primeiro debate: Inteligência da IA
Com cada nova geração de modelos de IA generativa surge um debate renovado sobre a inteligência das máquinas.
Elon Musk alimentou recentemente o debate sobre a inteligência da IA quando afirmou: "A IA será provavelmente mais inteligente do que qualquer ser humano no próximo ano. Em 2029, a IA será provavelmente mais inteligente do que todos os humanos juntos".
A IA será provavelmente mais inteligente do que qualquer ser humano no próximo ano. Em 2029, a IA será provavelmente mais inteligente do que todos os humanos juntos. https://t.co/RO3g2OCk9x
- Elon Musk (@elonmusk) 13 de março de 2024
Musk foi imediatamente contestado pelo cientista-chefe de IA da Meta e eminente investigador de IA, Yann LeCun, que afirmou: "Não. Se fosse esse o caso, teríamos sistemas de IA que poderiam aprender sozinhos a conduzir um carro em 20 horas de prática, como qualquer jovem de 17 anos. Mas ainda não temos uma condução autónoma totalmente autónoma e fiável, apesar de termos milhões de horas de dados de treino *rotulados*".
Não.
Se assim fosse, teríamos sistemas de IA capazes de se ensinarem a conduzir um carro em 20 horas de prática, como qualquer jovem de 17 anos.Mas ainda não temos uma condução autónoma totalmente autónoma e fiável, apesar de termos milhões de horas de dados de treino *com rótulos*.
- Yann LeCun (@ylecun) 14 de março de 2024
Esta conversa indica apenas um microcosmo de um vazio ambíguo na opinião dos especialistas e líderes em IA.
É uma conversa que conduz a uma espiral interminável de interpretações com pouco consensocomo demonstram os pontos de vista extremamente contrastantes de tecnólogos influentes ao longo do último ano (informações de Melhorar as notícias):
- Geoffrey Hinton: A "inteligência digital" poderá ultrapassar-nos dentro de "5 a 20 anos".
- Yann LeCun: É mais provável que a sociedade venha a ter uma IA de "nível de gato" ou de "nível de cão" anos antes da IA de nível humano.
- Demis Hassabis: Poderemos conseguir "algo como AGI ou semelhante a AGI na próxima década".
- Gary Marcus: "Acabaremos por atingir a AGI... e muito possivelmente antes do final deste século".
- Geoffrey Hinton: "A IA atual, como a GPT-4, "eclipsa uma pessoa" em termos de conhecimentos gerais e poderá em breve fazê-lo também em termos de raciocínio.
- Geoffrey Hinton: A IA está "muito perto disso agora" e será "muito mais inteligente do que nós no futuro".
- Elon Musk: "Teremos, pela primeira vez, algo que é mais inteligente do que o ser humano mais inteligente."
- Elon Musk: "Ficaria surpreendido se não tivéssemos AGI em [2029]."
- Sam Altman: "Poderemos chegar a uma verdadeira AGI na próxima década."
- Yoshua Bengio: As "IAs sobre-humanas" serão alcançadas "entre alguns anos e algumas décadas".
- Dario Amodei: A IA "a nível humano" poderá ocorrer dentro de "dois ou três anos".
- Sam Altman: A IA poderá ultrapassar o "nível de competências especializadas" na maioria dos domínios dentro de uma década.
- Gary Marcus: "Não creio que estejamos assim tão próximos de máquinas mais inteligentes do que nós".
Os principais líderes da IA discordam fortemente quanto à data em que a IA ultrapassará a inteligência humana. 2 ou 100 anos - o que é que *você* acha? @ylecun @GaryMarcus @geoffreyhinton @sama https://t.co/59t8cKw5p5
- Max Tegmark (@tegmark) 18 de março de 2024
Nenhuma das partes está inequivocamente certa ou errada no debate sobre a inteligência das máquinas. Tudo depende da interpretação subjectiva que cada um faz da inteligência e da forma como os sistemas de IA são avaliados em relação a essa definição.
Os pessimistas podem apontar para os potenciais riscos e consequências indesejadas da IA, sublinhando a necessidade de cautela. Argumentam que, à medida que os sistemas de IA se tornam mais autónomos e poderosos, podem desenvolver objectivos e comportamentos desalinhados com os valores humanos, conduzindo a resultados catastróficos.
Por outro lado, os optimistas podem centrar-se no potencial transformador da IA, imaginando um futuro em que as máquinas trabalhem lado a lado com os humanos para resolver problemas complexos e impulsionar a inovação. Podem minimizar os riscos, argumentando que as preocupações com a IA superinteligente são em grande parte hipotéticas e que os benefícios superam os riscos.
O cerne da questão reside na dificuldade de definir e quantificar a inteligência, especialmente quando se comparam entidades tão díspares como os seres humanos e as máquinas.
Por exemplo, mesmo um A mosca tem circuitos neuronais avançados e consegue iludir as nossas tentativas de a abater ou apanhar, sendo mais esperta do que nós neste domínio restrito. Este tipo de comparações é potencialmente ilimitado.
Escolham os vossos exemplos de inteligência, e todos podem estar certos ou errados.
Segundo debate: a IA está a acelerar ou a abrandar?
O avanço da IA está destinado a acelerar ou a estabilizar e abrandar?
Há quem defenda que estamos a meio de uma revolução da IA, com descobertas a progredir a passos largos. Outros afirmam que os progressos atingiram um patamar e que o sector enfrenta desafios importantes que poderão abrandar a inovação nos próximos anos.
A IA generativa é o culminar de décadas de investigação e de milhares de milhões em financiamento. Quando o ChatGPT aterrou em 2022, a tecnologia já tinha atingido um nível elevado em ambientes de investigação, colocando a fasquia alta e atirando a sociedade para o fundo do poço.
O entusiasmo que daí resultou também levou a um enorme financiamento de start-ups de IA, da Anthropic à Inflection e da Stability AI à MidJourney.
Este facto, combinado com os enormes esforços internos dos veteranos de Silicon Valley Meta, Google, Amazon, Nvidia e Microsoft, resultou numa rápida proliferação de ferramentas de IA. A GPT-3 transformou-se rapidamente na pesada GPT-4. Entretanto, concorrentes como LLMs como Claude 3 Opus, Grok da xAI e Mistrale os modelos de código aberto da Meta também deixaram a sua marca.
Alguns especialistas e tecnólogos, como Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis e Elon Musk, consideram que a aceleração da IA está apenas a começar.
Musk disse que a IA generativa era como "acordar o demónio", enquanto Altman disse que o controlo mental da IA era iminente (o que Musk evidenciou com avanços recentes em Neuralink; ver abaixo como um homem jogou uma partida de xadrez apenas com o pensamento).
Por outro lado, especialistas como Gary Marcus e Yann LeCun sentem que estamos a bater em paredes de tijolo, com a IA generativa a enfrentar um período de introspeção ou "inverno".
Tal resultaria de obstáculos práticos, como o aumento dos custos da energia, as limitações da computação de força bruta, a regulamentação e a escassez de materiais.
O desenvolvimento e a manutenção da IA generativa são dispendiosos e a monetização não é simples. As empresas tecnológicas têm de encontrar formas de manter a inércia para que o dinheiro continue a entrar no sector.
Terceiro debate: Segurança da IA
As conversas sobre a inteligência e o progresso da IA também têm implicações para a segurança da IA. Se não conseguimos chegar a acordo sobre o que constitui a inteligência ou sobre a forma de a medir, como podemos garantir que os sistemas de IA são concebidos e utilizados em segurança?
A ausência de uma compreensão partilhada da inteligência torna difícil estabelecer medidas de segurança adequadas e orientações éticas para o desenvolvimento da IA.
Subestimar a inteligência da IA é subestimar a necessidade de controlos e regulamentação da segurança da IA.
Por outro lado, sobrestimar ou exagerar as capacidades da IA distorce as percepções e arrisca-se a uma regulamentação excessiva. Esta situação poderia isolar o poder das grandes empresas de tecnologia, que têm uma influência comprovada no lobbying e na manobra da legislação. E quando cometem um erro, podem pagar as coimas.
No ano passado, debates prolongados X entre Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk e muitas outras figuras proeminentes da comunidade da IA, pôs em evidência divisões profundas na segurança da IA. A Big Tech tem trabalhado arduamente na autorregulação, criando "directrizes voluntárias" cuja eficácia é duvidosa.
Os críticos argumentam ainda que a regulamentação permite às grandes empresas de tecnologia reforçar as estruturas de mercadoA empresa tem de se livrar dos perturbadores e definir as condições de jogo do sector a seu gosto.
Neste lado do debate, LeCun argumenta que os riscos existenciais da IA foram exagerados e estão a ser utilizados como uma cortina de fumo pelas grandes empresas de tecnologia para pressionar por regulamentos que sufocariam a concorrência e consolidariam o controlo.
LeCun e os seus apoiantes também salientam que os riscos imediatos da IA, como a desinformação, as falsificações profundas e a parcialidade, já estão a prejudicar as pessoas e exigem uma atenção urgente.
AltmanHassabis e Amodei são os que estão a fazer lobbying maciço junto das empresas neste momento.
São eles que estão a tentar realizar uma captura regulamentar da indústria da IA.
O senhor, o Geoff e o Yoshua estão a dar munições àqueles que defendem a proibição da I&D aberta em matéria de IA.Se...
- Yann LeCun (@ylecun) 29 de outubro de 2023
Por outro lado, Hinton, Bengio, Hassabis e Musk fizeram soar o alarme sobre os potenciais riscos existenciais da IA.
Bengio, LeCun e Hinton, frequentemente conhecidos como os "padrinhos da IA" por terem desenvolvido redes neuronais, aprendizagem profunda e outras técnicas de IA ao longo dos anos 90 e no início dos anos 2000, continuam a ser influentes atualmente. Hinton e Bengio, cujos pontos de vista estão geralmente alinhados, participaram numa rara reunião recente entre investigadores americanos e chineses no Diálogo internacional sobre segurança da IA em Pequim.
A reunião culminou numa declaração: "No auge da Guerra Fria, a coordenação científica e governamental internacional ajudou a evitar uma catástrofe termonuclear. A humanidade precisa novamente de se coordenar para evitar uma catástrofe que pode surgir de uma tecnologia sem precedentes."
É preciso dizer que Bengio e Hinton não estão obviamente alinhados financeiramente com as grandes empresas de tecnologia e não têm motivos para exagerar nos riscos da IA.
O próprio Hinton levantou esta questão numa discussão com LeCun e o antigo cofundador do Google Brain, Andrew Ng, sublinhando que este deixou a Google para falar livremente sobre os riscos da IA.
De facto, muitos grandes cientistas têm questionado a segurança da IA ao longo dos anos, incluindo o falecido Prof. Stephen Hawking, que via a tecnologia como um risco existencial.
Andrew Ng afirma que a ideia de que a IA pode levar à nossa extinção é uma conspiração das grandes tecnologias. Um dado que não se enquadra nesta teoria da conspiração é o facto de eu ter deixado a Google para poder falar livremente sobre a ameaça existencial.
- Geoffrey Hinton (@geoffreyhinton) 31 de outubro de 2023
Esta mistura de trocas polémicas deixa pouco espaço para as pessoas ocuparem o meio-termo, alimentando a imagem da IA generativa como uma tecnologia polarizadora.
A regulamentação da IA, entretanto, tem tornar-se uma questão geopolíticaA China e os EUA estão a tentar colaborar na segurança da IA, apesar da escalada de tensões noutros departamentos.
Assim, tal como os especialistas discordam sobre quando e como a IA ultrapassará as capacidades humanas, também diferem nas suas avaliações dos riscos e desafios do desenvolvimento de sistemas de IA seguros e benéficos.
Os debates em torno da inteligência da IA não são apenas de natureza filosófica ou de princípios - são também uma questão de governação.
Quando os especialistas discordam veementemente até sobre os elementos básicos da inteligência e segurança da IA, a regulamentação não pode servir os interesses das pessoas.
A criação de consensos exigirá uma tomada de consciência difícil por parte dos peritos, dos criadores de IA, dos governos e da sociedade em geral.
No entanto, para além de muitos outros desafios, conduzir a IA para o futuro exigirá que alguns líderes tecnológicos e especialistas admitam que estavam errados. E isso não vai ser fácil.