Numa carta aberta intitulada "Construir a IA para um futuro melhor", os líderes do mundo da tecnologia prometem utilizar a IA para melhorar a vida humana e resolver desafios globais.
Este documento, assinado por uma lista de 179 entidades e em constante crescimento, sublinha o potencial da IA para revolucionar a vida quotidiana e o trabalho, estabelecendo paralelos com marcos históricos como a imprensa escrita e a Internet.
A carta defende que a IA deve servir de catalisador para o progresso humano, melhorando a aprendizagem através de tutores de IA, colmatando as diferenças linguísticas com ferramentas de tradução, melhorando os cuidados de saúde através de meios de diagnóstico, acelerando a investigação científica e simplificando as tarefas diárias com assistentes de IA.
Os signatários incluem a empresa de investimento SV Angel (que criou a carta), a OpenAI, a Meta, a Google, a Microsoft e a Salesforce, entre outros.
A carta afirma: "Todos temos algo a contribuir para moldar o futuro da IA, desde os que a utilizam para criar e aprender, aos que desenvolvem novos produtos e serviços com base na tecnologia, aos que utilizam a IA para encontrar novas soluções para alguns dos maiores desafios da humanidade, aos que partilham as suas esperanças e preocupações quanto ao impacto da IA nas suas vidas. A IA é para todos nós e todos nós temos um papel a desempenhar na construção da IA para melhorar a vida das pessoas".
"Nós, abaixo assinados, já estamos a sentir os benefícios da IA e estamos empenhados em construir uma IA que contribua para um futuro melhor para a humanidade - junte-se a nós!"
Então, e a receção?
A conversa foi, no mínimo, fria. Com apenas cerca de 100 palavras, a carta não faz propriamente uma grande tentativa de desvendar a trajetória e os impactos da IA.
Está-me a escapar alguma coisa ou isto não diz absolutamente nada? pic.twitter.com/3AfktUfbzh
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 4 de março de 2024
Um crítico aponta a falta de menção explícita à segurança da IA, classificando-a como "lixo de relações públicas". Outro classifica a declaração como "totalmente vazia", criticando-a por não abordar questões críticas como o risco de extinção da AGI, a perturbação dos meios de subsistência ou a ameaça de corridas armamentistas geopolíticas.
Declaração totalmente vazia que não assume qualquer compromisso com a redução do risco de extinção dos AGI, ou com a perturbação maciça dos meios de subsistência das pessoas, ou com a gestão da ameaça de corridas armamentistas geopolíticas em direção aos robots de abate.
Relações públicas deploráveis, cheias de chavões, que não significam nada.
- Geoffrey Miller (@primalpoly) 4 de março de 2024
Este acordo junta-se a muitos outros acordos interprofissionais, como o MLCommons em colaboração com as grandes tecnologias para definir os parâmetros de segurança, compromissos recentes para criar uma marca de água unificadae o Fórum do Modelo Frontier.
E não esqueçamos a declaração do Centro Sísmico para a Segurança da IA (CAIS), co-assinada no início de 2023, que comparou os riscos da IA às pandemias e à guerra nuclear.
As empresas tecnológicas também uniram recentemente forças para combater a fraude eleitoral profunda e celebrou numerosos acordos em eventos importantes como o Fórum Económico Mundial (WEF) e a Cimeira de Segurança da IA do Reino Unido.
A IA generativa está a resistir a uma tempestade mediática
A IA generativa tem sido objeto de um escrutínio e de uma controvérsia significativos, nomeadamente no que se refere à propriedade intelectual, à utilização ética e ao potencial para reforçar o domínio das grandes tecnologias.
Uma das principais preocupações prende-se com as implicações legais e éticas da utilização de conteúdos protegidos por direitos de autor sem autorização para treinar modelos de IA.
Empresas como a Stability AI e a OpenAI afirmam que a "utilização justa" as protege, mas esta é uma teoria altamente debatida e não testada na era da IA generativa.
A dificuldade de definir o que é "ao estilo de" um artista e as responsabilidades de entidades como a Large-scale Artificial Intelligence Open Network (LAION) na compilação de conjuntos de dados de treino foram destacadas como questões fundamentais.
Além disso, tem sido criticada a rápida implantação de produtos alimentados por IA por parte das empresas tecnológicas sem que as falhas, como a perpetuação de preconceitos prejudiciais, a violação de direitos de autor e as vulnerabilidades de segurança, sejam totalmente resolvidas.
As cartas abertas indicam um certo nível de consciencialização. Mas, para travar os riscos reais, é preciso um pouco menos de conversa e um pouco mais de ação.