O rápido crescimento da IA generativa cativou o mundo, mas à medida que a tecnologia avança a um ritmo sem precedentes, surgiu uma crise: a erosão da confiança do público na indústria da IA.
O Barómetro de Confiança Edelman 2024, um inquérito abrangente a mais de 32 000 inquiridos em 28 países, revelou um declínio surpreendente na confiança global nas empresas de IA, com os níveis de confiança a caírem de 61% para 53% em apenas cinco anos.
Os EUA registaram uma queda ainda mais dramática, com a confiança a cair de 50% para 35% durante o mesmo período. Esta situação é transversal a todas as linhas políticas, com os democratas (38%), os independentes (25%) e os republicanos (24%) a manifestarem um profundo ceticismo em relação à indústria da IA.
Outrora merecedor de grande confiança por parte do público, o sector tecnológico está a perder o seu brilho. Há oito anos, a tecnologia era o sector de maior confiança em 90% dos países estudados pela Edelman.
Atualmente, esse número desceu para apenas 50%. De facto, o sector tecnológico perdeu a sua posição como a indústria mais fiável em mercados-chave como os EUA, o Reino Unido, a Alemanha e a França.
Quando se trata de tecnologias específicas, os níveis de confiança são ainda mais preocupantes.
Enquanto 76% dos inquiridos a nível mundial confiam nas empresas tecnológicas em geral, apenas 50% confiam na IA. Esta diferença de 26 pontos é ainda mais acentuada em domínios como a medicina baseada em genes (diferença de 23 pontos) e os alimentos geneticamente modificados (diferença de 40 pontos).
O Estudo Edelman também evidencia uma forte divisão entre os países desenvolvidos e em desenvolvimento nas suas atitudes em relação à IA. Os inquiridos em França, no Canadá, na Irlanda, no Reino Unido, nos EUA, na Alemanha, na Austrália, nos Países Baixos e na Suécia rejeitam a utilização crescente da IA por uma margem de três para um.
Em contrapartida, a aceitação da IA ultrapassa significativamente a resistência nos mercados em desenvolvimento, como a Arábia Saudita, a Índia, a China, o Quénia, a Nigéria e a Tailândia.
O que é que motiva a desconfiança em relação à indústria da IA generativa?
O que é que está a provocar esta desconfiança?
Globalmente, as preocupações com a privacidade (39%), a desvalorização da humanidade (36%) e os testes inadequados (35%) estão no topo da lista de obstáculos à adoção da IA.
Nos EUA, os receios de danos sociais (61%) e de ameaças ao bem-estar pessoal (57%) são particularmente graves. Curiosamente, a deslocação de postos de trabalho está perto do fundo das preocupações, tanto a nível global (22%) como nos EUA (19%).
Estas conclusões são ainda reforçadas por um estudo recente Sondagem do Instituto de Política de IA conduzida pela YouGov, que revelou que uns impressionantes 72% dos eleitores americanos defendem um desenvolvimento mais lento da IA, em contraste com os meros 8% que favorecem a sua aceleração.
A sondagem também revelou que 62% dos americanos manifestam apreensão em relação à IA, ofuscando os 21% que se sentem entusiasmados.
Controvérsias recentes, como a fuga de mais de 16.000 nomes de artistas ligados ao treino dos modelos de geração de imagens do Midjourney e revelações internas na Microsoft e na GoogleA Comissão Europeia, em conjunto com a Comissão Europeia e a Comissão Europeia, só veio aumentar as preocupações do público relativamente à indústria da IA.
Enquanto titãs da indústria como Sam Altman, Brad Smith e Jensen Huang estão ansiosos por fazer avançar o desenvolvimento da IA para o "bem maior", o público não partilha necessariamente o mesmo fervor.
Para reconstruir a confiança, o relatório da Edelman recomenda que as empresas estabeleçam parcerias com o governo para garantir um desenvolvimento responsável e ganhar a confiança do público através de testes exaustivos.
Os cientistas e os peritos continuam a ter autoridade, mas precisam cada vez mais de participar no diálogo público. Acima de tudo, as pessoas querem ter um sentido de agência e de controlo sobre o impacto que as inovações emergentes terão nas suas vidas.
Tal como Justin Westcott, presidente da Edelman para a tecnologia global, afirmou acertadamente: "Aqueles que dão prioridade à IA responsável, que estabelecem parcerias transparentes com as comunidades e os governos e que devolvem o controlo às mãos dos utilizadores, não só liderarão a indústria, como reconstruirão a ponte de confiança que a tecnologia, algures ao longo do caminho, perdeu".
Medo do desconhecido?
Ao longo da história da humanidade, o aparecimento de tecnologias inovadoras tem sido frequentemente acompanhado por uma complexa interação de fascínio, adoção e apreensão.
Não há dúvida de que milhões de pessoas utilizam regularmente a IA generativa, com inquéritos que mostram que cerca de 1/6 das pessoas nas economias digitalmente avançadas utilizam diariamente ferramentas de IA, e a grande maioria já as experimentou, pelo menos.
Estudos realizados em diferentes sectores revelam que as pessoas poupam horas diariamente utilizando a IA generativa, reduzindo o risco de esgotamento e diminuindo os encargos administrativos.
Tal como acontece com outras tecnologias, a IA generativa está a assistir a uma repetição deste ciclo de apreensão e aceitação?
Consideremos, por exemplo, o advento da imprensa no século XV. Esta tecnologia revolucionária democratizou o acesso ao conhecimento, abriu caminho à comunicação de massas e catalisou profundas mudanças sociais, políticas e religiosas.
No meio da rápida proliferação de materiais impressos, havia receios quanto ao potencial de desinformação, à erosão da autoridade e à rutura das estruturas de poder estabelecidas.
Do mesmo modo, a Revolução Industrial dos séculos XVIII e XIX trouxe avanços sem precedentes na indústria transformadora, nos transportes e nas comunicações.
A máquina a vapor, o telégrafo e o sistema fabril transformaram a estrutura da sociedade, abrindo novas possibilidades de produtividade e progresso. No entanto, estas inovações também suscitaram preocupações quanto à deslocação dos trabalhadores, à concentração da riqueza e do poder e aos efeitos desumanizadores da mecanização.
A IA generativa é talvez representativa de uma caraterística desconhecida e potencialmente imprevisível. O medo que a rodeia não é um fenómeno inteiramente novo, mas antes um eco de padrões históricos que moldaram a nossa relação com inovações transformadoras.
Esta dissonância em torno da IA generativa reflecte uma tensão mais profunda entre o nosso desejo inato de progresso e o nosso medo do desconhecido.
Os seres humanos são atraídos pela novidade e pelo potencial das novas tecnologias, mas também se debatem com a incerteza e os riscos que elas acarretam.
Na sua obra-prima "O Ser e o Nada" (1943), o filósofo francês Jean-Paul Sartre explora o conceito de "má-fé", uma forma de auto-engano em que os indivíduos negam a sua própria responsabilidade perante a ansiedade existencial.
No contexto da IA generativa, a adoção generalizada da tecnologia, apesar da desconfiança crescente, pode ser vista como uma forma de má-fé, uma maneira de abraçar os benefícios da IA evitando as questões difíceis e os dilemas éticos que ela suscita.
Além disso, o ritmo e a escala do desenvolvimento da IA generativa amplificam a dissonância entre a adoção e a desconfiança.
Ao contrário de revoluções tecnológicas anteriores que se desenrolaram ao longo de décadas ou séculos, a ascensão da IA está a acontecer a uma velocidade sem precedentes, ultrapassando a nossa capacidade de compreender as suas implicações e de desenvolver plenamente quadros de governação adequados.
Este rápido avanço deixou muitos com uma sensação de vertigem, como se o chão debaixo dos seus pés estivesse a mudar mais rapidamente do que conseguem adaptar-se. Também expôs as limitações das nossas actuais normas legais, éticas e estruturas sociaisque lutam para acompanhar o poder transformador da IA.
Temos de trabalhar para criar um futuro em que os benefícios desta tecnologia sejam concretizados de uma forma que defenda os nossos valores, proteja os nossos direitos e promova o bem maior.
O desafio é que "o bem maior" é algo de imensa subjetividade e obscuridade. É uma frase que empresas como a OpenAI utilizam frequentemente e tem um tom ditatorial ligeiramente enervante.
Em qualquer caso, orientar a IA generativa nesse sentido exigirá um diálogo aberto e honesto, uma vontade de enfrentar questões difíceis e um empenho em construir pontes de compreensão e confiança.
O sistema jurídico também tem de se adaptar para abrir caminho a um desenvolvimento justo e transparente da IA que se afaste desta era do Oeste selvagem da recolha de dados e do abuso da propriedade intelectual.
Nessa altura, poderemos ver a confiança começar a subir.