A batalha dos "padrinhos da IA" - a IA é arriscada ou não?!

2 de novembro de 2023

Riscos da IA

A IA é arriscada, certo? Foi o que todos nos disseram no ano passado. Mas nem todos concordam, incluindo alguns investigadores de topo. 

O X tem estado em polvorosa com as discussões sobre a questão de saber se a IA representa riscos existenciais genuínos. Não estamos a falar de desinformação ou de falsificações profundas - embora estas já sejam más - mas sim de riscos ao nível das catástrofes nucleares e das pandemias.

Este debate tem sido liderado pelo cético em relação aos riscos da IA e chefe de IA da Meta, Yann LeCun, considerado um dos chamados "padrinhos da IA", juntamente com Yoshua Bengio e Geoffrey Hinton. 

Na linha de fogo de LeCun estão o diretor executivo da OpenAI, Sam Altman, o diretor executivo da DeepMind, Demis Hassabis, e o diretor executivo da Anthropic, Dario Amode, que LeCun acusou de "lobbying empresarial maciço".

Especificamente, LeCun está preocupado com o facto de os chefes das grandes empresas tecnológicas estarem a aumentar a conversa em torno do risco e da utilização indevida da IA para que os reguladores bloqueiem a indústria a seu favor.

As grandes empresas tecnológicas têm capacidade para lidar com a regulamentação, ao passo que as empresas mais pequenas e os programadores de código aberto não têm. LeCun também duvida da visão muitas vezes apresentada de uma "singularidade" da IA, em que a tecnologia se torna subitamente mais inteligente do que os humanos, assinalando assim uma nova era de IA superinteligente. 

Outros, incluindo Altman, disseram agora que esperam que o desenvolvimento da IA seja mais granular e progressivo, em vez de "descolar" de um dia para o outro.

De acordo com os argumentos de LeCun, as grandes tecnologias podem utilizar os riscos da IA em seu benefício, permitindo-lhes reforçar as estruturas de mercado e eliminar a concorrência. O verdadeiro risco, de acordo com LeCun, é que um pequeno número selecionado de criadores de IA se apropriem da indústria e ditem a sua trajetória. 

Sublinhou a gravidade da situação, afirmando que "se estes esforços forem bem sucedidos, o resultado será uma catástrofe porque um pequeno número de empresas controlará a IA". Esta declaração reflecte o consenso mais alargado no mundo da tecnologia sobre o potencial transformador da IA, equiparando o seu significado ao do microchip ou da Internet.

As observações de LeCun responderam ao famoso físico Max Tegmark, que insinuou que LeCun não estava a levar suficientemente a sério os riscos existenciais da IA.

Numa publicação pública, Tegmark reconheceu os esforços dos líderes mundiais no reconhecimento dos potenciais perigos da IA, afirmando que "não podem ser refutados apenas com comentários e lobbies empresariais".

No meio do aumento da influência da IA, figuras como Altman e Hassabis tornaram-se centrais no discurso público sobre tecnologia. No entanto, LeCun critica-os por alimentarem o medo em relação à IA e, simultaneamente, lucrarem com ela.

Em março, mais de um milhar de líderes tecnológicos, incluindo Elon Musk, Altman e Hassabis, defendeu uma pausa no desenvolvimento da IA, invocando riscos sociais e humanitários significativos.

LeCun, no entanto, argumenta que estes avisos dramáticos são uma cortina de fumo, desviando a atenção de questões imediatas como exploração dos trabalhadores e roubo de dados.

LeCun apela a uma reorientação do debate para o presente e o futuro imediato do desenvolvimento da IA. Manifestou a sua preocupação com a potencial obliteração da comunidade de IA de fonte aberta se o desenvolvimento da IA ficar confinado a entidades privadas com fins lucrativos.

Para LeCun, os riscos são elevados: "A alternativa, que acontecerá inevitavelmente se a IA de fonte aberta deixar de existir, é que um pequeno número de empresas da Costa Oeste dos EUA e da China controlará a plataforma de IA e, por conseguinte, controlará toda a dieta digital das pessoas", advertiu, instando a que se considerem as implicações para a democracia e a diversidade cultural.

Os apoiantes de LeCun

Os argumentos de LeCun são bem apoiados nas redes sociais e suscitam consenso entre os comentadores e os especialistas do sector.

Por exemplo, Andrew Ng, uma figura central no desenvolvimento da IA e cofundador do Google Brain, também manifestou a sua preocupação com o facto de as grandes empresas tecnológicas poderem estar a manipular o discurso sobre a IA para ganharem o domínio do mercado.


Numa entrevista ao The Australian Financial Review, Ng destacou uma tendência entre os gigantes da tecnologia para amplificar os receios da IA, especificamente a ideia de que poderia levar à extinção humana. Tal como LeCun e outros, Ng sugere que esta narrativa está a ser utilizada estrategicamente para levar a uma regulamentação mais rigorosa da IA, dificultando assim as iniciativas de código aberto e os concorrentes mais pequenos.

"Há definitivamente grandes empresas de tecnologia que prefeririam não ter de tentar competir com o código aberto, por isso estão a criar o medo de que a IA leve à extinção humana", explicou Ng. "Tem sido uma arma para os lobistas defenderem legislação que seria muito prejudicial para a comunidade de código aberto".

No início do anoEm março de 2009, um memorando da Google que foi divulgado parecia admitir que a grande tecnologia estava a perder terreno para o código aberto. 

O memorando dizia: "Os modelos de código aberto são mais rápidos, mais personalizáveis, mais privados e mais capazes. Estão a fazer coisas com params $100 e 13B que nós temos dificuldade em fazer com $10M e 540B. E estão a fazê-lo em semanas, não em meses".

A IA de código aberto é rápida, não monolítica, privada e, acima de tudo, barata. A grande tecnologia já está a com dificuldades em rentabilizar a IAPor isso, tudo faz sentido no papel: regular a indústria da IA para ajudar os titãs a prevalecer. 

Distração das ameaças imediatas

Há uma outra dimensão neste debate que vai para além do dinheiro.

Muitos reiteraram que os riscos actuais da IA, como as falsificações profundas extremamente sofisticadas e a desinformação, já são suficientes para justificar um longo debate e uma ação rápida. 

Aidan Gomez, um proeminente investigador em IA e diretor executivo da Cohere, também salientou o risco de nos concentrarmos demasiado em cenários apocalípticos. 

Falando antes da cerimónia desta semana de Cimeira de Segurança da IAGomez salientou que as ameaças imediatas, como a desinformação e a erosão da confiança social, estão a ser ofuscadas pelos debates sobre os riscos existenciais a longo prazo.

"Penso que, em termos de risco existencial e de políticas públicas, não é uma conversa produtiva", afirmou Gomez, sublinhando a necessidade de dar prioridade aos riscos imediatos.

"No que diz respeito às políticas públicas e à forma como o sector público se deve centrar - ou seja, tentar mitigar o risco para a população civil - penso que se trata de uma distração, afastando-nos de riscos que são muito mais tangíveis e imediatos".

Gomez destaca a influência generalizada da IA em produtos utilizados por milhares de milhões de pessoas, sublinhando a necessidade urgente de abordar os riscos que afectam ativamente o público. "Esta tecnologia já está presente em mil milhões de produtos de utilizadores, como na Google e noutros. Isso apresenta uma série de novos riscos a serem discutidos, nenhum dos quais é existencial, nenhum dos quais é um cenário apocalítico", explicou. 

Ele identifica a desinformação como uma das principais preocupações, dada a capacidade dos modelos de IA para criar meios de comunicação "virtualmente indistinguíveis de textos, imagens ou meios de comunicação criados por humanos".

A desinformação é, de facto, o inimigo público número um em termos de riscos de IA, uma vez que já observámos exemplos de falsificações profundas que foram utilizadas em fraudes bem sucedidas.

Fingimentos profundos antes do final do jogo nas eleições eslovacas mostraram como podem afetar de forma tangível a democracia. 

Yoshua Bengio, Geoffrey Hinton e Elon Musk juntam-se ao debate

O "padrinho da IA" Yoshua Bengio, juntamente com uma assembleia de mais de 200 líderes tecnológicos e investigadores, subscreveu uma carta aberta que salienta a necessidade crítica de uma ação imediata e substancial.

Bengio está agora a liderar um relatório internacional apresentado na Cimeira de Segurança da IA do Reino Unido. Ele está muito convencido dos riscos da IA, tal como Geoffrey Hinton, o que significa que 2/3 dos "padrinhos da IA" estão preocupados a um certo nível. 


No seu sítio Web, Bengio escreveuRecentemente, assinei uma carta aberta pedindo para abrandar o desenvolvimento de sistemas gigantes de IA mais poderosos do que o GPT-4 - aqueles que atualmente passam no teste de Turing e podem, assim, enganar um ser humano, fazendo-o acreditar que está a conversar com um colega e não com uma máquina".

Geoffrey Hinton, do triunvirato de padrinhos da IA, deixou a Google para "falar" sobre os seus receios relativamente à IA. Chegou mesmo a dizer que lamentava o seu trabalho devido à forma como a IA poderia ser mal utilizada, afirmando numa entrevista: "Consolo-me com a desculpa normal: se eu não o tivesse feito, alguém o teria feito".

Hinton, tal como Bengio, defende a opinião de que a IA apresenta sérios riscos de extinção. Também duvida que os modelos de fonte aberta possam apoiar os esforços de segurança. 

Recentemente, sublinhou que a sua escolha de deixar a Google estava em desacordo com a posição crítica de LeCun et al., afirmando no X: "Andrew Ng está a afirmar que a ideia de que a IA nos pode extinguir é uma conspiração das grandes tecnologias. Um dado que não se enquadra nesta teoria da conspiração é o facto de eu ter deixado a Google para poder falar livremente sobre a ameaça existencial".

Hinton, Bengio e outros investigadores de topo em IA, incluindo o influente cientista informático chinês Andrew Yao, recentemente apoiou um documento descrevendo os riscos da IA.

Nas palavras de Hinton, "As empresas estão a planear treinar modelos com 100 vezes mais computação do que o atual estado da arte, dentro de 18 meses. Ninguém sabe quão poderosos eles serão. E não há praticamente nenhuma regulamentação sobre o que poderão fazer com esses modelos".

Este debate continua e continuará a continuar.

Um utilizador do X comentou o seguinte:


LeCun tem outro antagonista em Elon Musk, que raramente está ausente de um debate de alto nível sobre X, especialmente de um que se situa firmemente na sua casa do leme (para não falar da sua plataforma).

Musk tem um historial bem documentado de expressar as suas preocupações sobre a IA, mas a sua posição tornou-se altamente imprevisível.

Nos últimos tempos, Musk tem rotulado consistentemente a IA como uma potencial ameaça existencial para a humanidade, afirmando que desenvolver IA complexa era como "invocar o demónio". Na Cimeira de Segurança da IA, no entanto, disse que achava que a IA traria benefícios líquidos positivos. 

Nos últimos meses, Musk tem criticado a OpenAI, destacando um desvio da missão original da organização e expressando preocupações sobre a sua direção "de código fechado", fortemente influenciada pela Microsoft. 

Tanto Musk como LeCun concordam, em termos gerais, nas suas críticas à IA de código fechado, mostrando que defender os riscos da IA nem sempre é denunciar o código aberto.

Relativamente ao tema do código aberto, vamos ver o que Musk decide fazer com os seus produtos A startup de IA xAI lança.

O chefe da Google DeepMind responde à alegação de LeCun de que "o medo está a aumentar

O diretor da Google DeepMind, Demis Hassabis, respondeu às alegações feitas por LeCun, acusando a empresa de se envolver em lobbies empresariais alargados para dominar o sector da IA. 

Numa entrevista com CNBCHassabis sublinhou que o envolvimento da DeepMind nas discussões sobre IA não é uma tentativa de "captura regulamentar".

Em resposta a estas afirmações, Hassabis declarou: "Não concordo com a maior parte dos comentários de Yann". 

O Comissário delineou três categorias principais de riscos associados à IA, sublinhando a importância de abordar questões imediatas como a desinformação, as falsificações profundas e a parcialidade, tendo também em conta a potencial utilização indevida da IA por agentes maliciosos e os riscos a longo prazo associados à inteligência artificial geral (AGI). 

Defendeu o início de conversações sobre a regulamentação da IA superinteligente mais cedo do que tarde para evitar consequências terríveis.

Destacando a natureza global da tecnologia de IA, Hassabis sublinhou a necessidade de cooperação internacional, incluindo a colaboração com a China, para estabelecer normas de desenvolvimento e regulamentação responsáveis. 

Tanto ele como James Manyika, vice-presidente sénior de investigação, tecnologia e sociedade da Google, expressaram o desejo de ver um consenso global sobre a IA. Hassabis esteve presente na Cimeira de Segurança da IA do Reino Unido, onde alinhou com o sentimento dos líderes mundiais para enfatizar a segurança e a supervisão da IA. 

Apesar das actuais tensões tecnológicas entre os EUA e a China e da hesitação dos gigantes tecnológicos norte-americanos em se envolverem em actividades comerciais na China, Hassabis sublinhou a necessidade de comunicação, afirmando: "Penso que, nesta fase, temos de falar com toda a gente".

Existe um meio-termo?

Os debates em torno dos riscos potenciais da IA e das respostas regulamentares necessárias estão a atingir um ponto crítico.

Nas últimas semanas, assistiu-se a um aumento exponencial das "conversações oficiais" sobre a IA, mas a regulamentação ainda está na calha.

A regulamentação dos EUA e o AI Act da UE estabelecerão as primeiras bases sólidas para a governação da IA. 

O canto de LeCun apresenta um argumento convincente em torno da monetização da IA face à concorrência de código aberto. Desde o memorando que vazou do Google até aos riscos existenciais coesos apresentados pelos chefes das grandes empresas tecnológicas nos principais meios de comunicação social, ele e os seus apoiantes têm muitas munições. 

No entanto, a falta de consenso é mais profunda do que as cabeças dos criadores de IA com fins lucrativos da Microsoft, DeepMind, Anthropic, etc.

Bengio e Hinton são maioritariamente não afiliados, e o falecido Professor Stephen Hawking, por exemplo, declarou que "pode significar o fim da raça humana" e pode vir a ser o "pior acontecimento na história da nossa civilização". 

Os investigadores demonstraram a capacidade dos sistemas de IA para desenvolver autonomamente objectivos emergentesque podem ter resultados catastróficos se não forem corretamente geridos. Outras experiências mostraram que os sistemas de IA podem procurar ativamente recursos, acumular energia e tomar medidas para evitar serem desligados. 

Há provas sólidas de danos relacionados com a IA, mas será que são proporcionais aos alarmes que os patrões das grandes empresas tecnológicas estão a fazer soar?

E, talvez mais importante, será que se pode realmente confiar neles para gerir o sector de forma ética para todos, independentemente da presença ou ausência de risco?

Talvez devêssemos encarar as acções das grandes empresas tecnológicas como a derradeira aposta.

A IA é arriscada, muito provavelmente, mas algumas empresas seleccionadas querem assumir esse risco, levá-lo aos seus limites e moldá-lo como bem entenderem, para o bem ou para o mal.

A grande tecnologia pode carregar o jogo para que a casa ganhe sempre enquanto se mantiver de pé. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições