Um inquérito em grande escala que abrangeu 2700 investigadores de IA revelou opiniões divididas quanto aos riscos da IA.
O inquérito realizado pela AI ImpactsA iniciativa, a maior do género, envolveu profissionais que publicaram trabalhos de investigação em seis das principais conferências sobre IA.
Os participantes foram convidados a dar a sua opinião sobre os futuros marcos da IA e as suas implicações sociais.
Nomeadamente, quase 58% destes investigadores acreditam que existe uma probabilidade de 5% de extinção humana ou de resultados igualmente terríveis devido aos avanços da IA.
Outras conclusões sugerem que a IA tem uma probabilidade de 50% ou superior de dominar tarefas que vão desde a composição de música de cartaz até ao desenvolvimento de um sítio Web completo de processamento de pagamentos na próxima década.
As tarefas mais complexas, como a instalação de cabos eléctricos ou a resolução de problemas matemáticos, deverão demorar mais tempo, embora A DeepMind demonstrou recentemente O desempenho superior da IA na resolução dos problemas do conjunto de tampas e do empacotamento de caixas.
Os investigadores estimam também uma probabilidade de 50% de a IA ultrapassar o desempenho humano em todas as tarefas até 2047 e a automatização de todos os empregos humanos até 2116. Isto depende do facto de a ciência "não sofrer perturbações".
Os resultados são certamente mistos, mas é justo dizer que se considera que os riscos da IA ainda não atingiram uma massa crítica.
Katja Grace, do Machine Intelligence Research Institute, na Califórnia enunciado do estudoÉ um sinal importante de que a maior parte dos investigadores de IA não considera muito improvável que a IA avançada destrua a humanidade".
Segue-se uma lista das principais estatísticas e conclusões:
- Probabilidade de a IA atingir marcos importantes até 2028: Há uma probabilidade de 50% de os sistemas de IA serem capazes de construir um site de processamento de pagamentos, criar uma canção indistinguível da de um músico popular e descarregar e afinar um grande modelo de linguagem (LLM).
- Previsões de desempenho da IA a nível humano: O estudo prevê uma probabilidade de 10% até 2027 e uma probabilidade de 50% até 2047 de as máquinas sem ajuda ultrapassarem os seres humanos em todas as tarefas. Esta previsão para 2047 é 13 anos mais cedo do que a efectuada em 2022.
2. O tempo necessário para atingir a maioria dos marcos importantes diminuiu desde 2022, alguns em muito. Prevê-se que os investigadores de IA sejam automatizáveis cerca de 25 anos mais cedo do que no ano anterior. O tempo para a ficção mais vendida no NYT diminuiu cerca de 9 anos. pic.twitter.com/Npmd7QNW8g
- Impactos da IA (@AIImpacts) 4 de janeiro de 2024
- Automatização das actividades humanas: Existe uma probabilidade de 10% de todas as profissões humanas se tornarem totalmente automatizáveis até 2037 e uma probabilidade de 50% até 2116, avançando em relação à previsão de 2164 feita em 2022.
- Perspectivas sobre o valor a longo prazo da IA68,3% dos inquiridos pensam que os bons resultados da "IA sobre-humana" são mais prováveis do que os maus, mas 48% destes optimistas ainda vêem pelo menos 5% de hipóteses de resultados extremamente maus, como a extinção humana. Entretanto, 59% dos pessimistas vêem uma probabilidade de 5% ou mais de resultados extremamente bons.
- Preocupações com os cenários baseados na IA: Mais de 70% dos investigadores mostram-se preocupados com questões como as falsificações profundas, a manipulação da opinião pública e o armamento artificial. As falsificações profundas foram as que causaram mais alarme, com 86% de investigadores a manifestarem preocupação.
- Estimativas de probabilidade para riscos de IA: Entre 37,8% e 51,4% dos inquiridos acreditam que existe pelo menos uma probabilidade de 10% de que a IA avançada possa conduzir a resultados tão graves como a extinção humana.
3. Mediana de 5% ou mais sobre a IA avançada que conduz à extinção da humanidade ou algo semelhante. Cerca de um terço a metade dá mais de 10%, em quatro perguntas. (Muitas vezes, perguntamos sobre um tópico de diferentes formas para sermos mais robustos - aqui obtemos respostas consistentes). pic.twitter.com/g7bPXAXABs
- Impactos da IA (@AIImpacts) 4 de janeiro de 2024
- Estimativas de probabilidade para HLMI (High-Level Machine Intelligence): A previsão agregada de 2023 prevê uma probabilidade de 50% de atingir o HLMI até 2047, o que representa uma mudança significativa em relação à previsão de 2060 feita em 2022.
- Probabilidade de automatização total do trabalho (FAOL): A previsão para 2023 estima uma probabilidade de 50% de FAOL em 2116, 48 anos mais cedo do que uma previsão semelhante feita em 2022.
- Investigação sobre segurança da IA: Cerca de 70% dos participantes no inquérito consideram que a investigação sobre a segurança da IA deveria ter mais prioridade do que tem atualmente.
6. 70% dos participantes gostariam que fosse dada mais prioridade à investigação sobre segurança da IA. "Muito mais" é um aumento significativo desde 2016. (Recorde-se que se trata de um inquérito aos investigadores de IA em geral e não aos investigadores de segurança). pic.twitter.com/DvE8HeWCXY
- Impactos da IA (@AIImpacts) 4 de janeiro de 2024
Os riscos imediatos ofuscam os riscos a longo prazo
Para além dos riscos existenciais, o inquérito sublinha que uma maioria substancial dos investigadores tem preocupações imediatas com a IA.
Mais de 70% expressam uma preocupação significativa com questões relacionadas com a IA, como falsificações profundas, manipulação da opinião pública, armamento artificial, controlo autoritário e aumento da desigualdade económica.
Émile Torres, da Case Western Reserve University, no Ohio, alerta especificamente para o papel da IA na disseminação de desinformação sobre temas críticos e para o seu impacto na governação democrática, afirmando: "Já temos a tecnologia, aqui e agora, que pode minar seriamente a democracia [dos EUA]".
As campanhas políticas lançadas por políticos norte-americanos e canadianos já utilizaram a IA para criar imagens e Chamadas automáticas de IA estão atualmente a ser utilizados para angariar eleitores.
Outro fator importante O incidente foi a recente eleição na Eslováquia, em que, juase 48 horas antes do escrutínio, surgiu nas redes sociais um clipe de áudio falsificado que, alegadamente, mostrava figuras políticas importantes a discutir tácticas de compra de votos.
Desencadeou uma confusão generalizada durante um período crítico de silêncio pré-eleitoral. O momento em que foi divulgado tornou quase impossível contrariar prontamente os seus efeitos.
Mais recentemente, as campanhas de difamação geradas pela IA visaram a eleições muito disputadas no Bangladeshcom conteúdos que visam desacreditar o partido da oposição, afirmando o seu apoio ao bombardeamento de Gaza, um tema sensível num país de maioria muçulmana.
Debate-se a calendarização dos riscos da IA
As comparações entre os impactos a curto e a longo prazo da IA foram fonte de um aceso debate quando o Centro para a Segurança da IA (CAIS) divulgou uma declaração dramática em 2023, comparando os riscos da IA com as pandemias e a guerra nuclear.
A cobertura dos meios de comunicação social tem-se multiplicado, com as piores previsões para o desenvolvimento da IA, desde robôs assassinos a drones fora de controlo no campo de batalha.
Até agora, é a forma como os seres humanos estão a utilizar a IA que representa riscos - um caso de "a IA não mata pessoas, os seres humanos é que matam" - e a preocupação com os riscos existenciais é por vezes vista como algo que se sobrepõe ao que está a acontecer neste momento.
As falsificações profundas, em particular, têm impactos tangíveis comprovados na sociedade humana.
Há ainda uma outra vertente, liderada por Yann LeCun, uma figura proeminente da IA, que sugere que as grandes empresas tecnológicas podem exagerar estes riscos para influenciar as acções regulamentares a seu favor.
Os receios, muitas vezes promovidos pelas grandes empresas tecnológicas, podem ser um estratagema estratégico para incentivar regulamentações rigorosas, que podem prejudicar as entidades mais pequenas e as iniciativas de código aberto.
Isto revela um perigo mais subtil - a potencial monopolização da IA por parte de algumas grandes empresas, o que pode sufocar a inovação e a diversidade na IA.
Isto deixa os principais intervenientes no espaço, como a Google e a OpenAI, a impulsionar a indústria na sua própria direção, desde que consigam apaziguar as exigências de conformidade.
Riscos existenciais - o que dizem as provas?
O diálogo sobre os riscos oscila frequentemente entre dois extremos: ceticismo e alarmismo. Então, que provas concretas existem para sugerir que a IA pode matar-nos ou destruir o planeta?
A ideia de armamento com IA é talvez o exemplo mais iminentemente imaginável. Neste caso, os sistemas de IA poderiam matar seres humanos com uma supervisão limitada, ou os agentes de ameaças poderiam utilizar a tecnologia para desenvolver armas cataclísmicas eficazes.
Os drones já são, sem dúvida, capazes de destruir alvos com um mínimo de intervenção humana, como aconteceu, sem dúvida, no Os conflitos israelo-palestinianos e russo-ucranianos já estão em curso.
Um fator mais subtil do risco existencial da IA é o enfraquecimento. A preocupação aqui não é apenas com a perda de empregos para os robots, mas com a perda de capacidades e criatividade humanas essenciais. Uma analogia comum é o filme WALL-E, em que seres humanos semelhantes a bolhas têm robôs para fazer o que querem, à custa da própria Terra.
Existe algumas provas que LLMs como o ChatGPT estão a corroer o pensamento crítico dos estudantes, embora seja muito cedo para ter a certeza.
As instituições de ensino estão empenhadas em aproveitar os benefícios da IA sem acabar com o mundo académico liderado por seres humanos, com vários estabelecimentos de alto nível a aprovarem condicionalmente a utilização da tecnologia pelos estudantes.
Outro risco razoavelmente bem documentado é o facto de a IA desenvolver objectivos emergentes, tal como salientado por investigação da Universidade de Cambridge e da DeepMindque podem ter consequências indesejadas e potencialmente nefastas para a sociedade humana.
Os objectivos emergentes poderão fazer com que as IA altamente inteligentes estabeleçam os seus próprios objectivos imprevisíveis, podendo mesmo escapar à sua arquitetura para "infetar" outros sistemas.
Em última análise, o potencial da IA para uma extinção dramática e violenta é altamente especulativo, e há poucos exemplos ou provas de que tal possa acontecer em breve. No entanto, as provas experimentais em torno de objectivos emergentes e outros métodos potenciais de IAs autónomas que causam danos estão a aumentar.
Por enquanto, temos muitos riscos imediatos para enfrentar, e não esqueçamos que estes desafios se desenvolverão paralelamente às alterações climáticas, à perda de habitats, às crises demográficas e a outros riscos a nível macro.
Embora haja entusiasmo com as potenciais realizações da IA, há também uma preocupação palpável com os seus riscos imediatos e implicações a longo prazo.
Este último inquérito serve para recordar que o discurso sobre a IA não deve ser desviado para riscos existenciais distantes em detrimento da abordagem dos desafios imediatos e dos dilemas éticos colocados por esta tecnologia transformadora.
À medida que a IA avança, torna-se crucial encontrar um equilíbrio neste debate para orientar o seu desenvolvimento para resultados benéficos e seguros para a humanidade.