Num discurso instigante na cimeira global "AI for Good" da ONU, em Genebra, o famoso historiador e autor israelita Yuval Noah Harari manifestou a sua preocupação com a proliferação de "humanos falsos" nas redes sociais...
Harari alertou para o facto de que, se não for controlada, a criação e a disseminação destes bots de IA, que se fazem passar por pessoas reais para fomentar o envolvimento, pode levar a um colapso da confiança pública e pôr em risco os alicerces da democracia.
Como contrapeso, Harari propôs a introdução de sanções penais severas para aqueles que criam perfis falsos, sublinhando que a situação é urgente e que a investigação sobre a segurança da IA tem de se tornar uma prioridade se quisermos manter esta tecnologia sob controlo.
O rápido aparecimento de seres humanos falsos
Com os avanços na tecnologia de IA, em particular os grandes modelos linguísticos como o ChatGPT, os bots de IA não só são capazes de amplificar o conteúdo gerado por humanos, como também de criar o seu próprio conteúdo em grande escala.
À escala é a frase-chave aqui...
Imagine uma situação em que as plataformas das redes sociais são inundadas por milhões de bots de IA - todos eles capazes de produzir conteúdos superiores aos de uma pessoa comum.
Este cenário parece saído diretamente da sala de redação de Black Mirror, mas é inegavelmente um cenário provável à medida que a IA continua a evoluir.
Com milhões de bots de IA a publicar ao lado de pessoas reais, teríamos uma situação em que o conteúdo "real" e o conteúdo baseado em IA se tornariam quase indistinguíveis - prejudicando assim a cultura e o discurso global como um todo.
Esta perda de controlo sobre a praça da cidade também iria, de certa forma, retirar a própria essência da democracia, a democracia das ideias e do livre pensamento.
Salvaguarda da democracia + necessidade de consequências penais:
Voltando a Harari, ele fez uma excelente observação ao traçar um paralelo com a moeda falsa, argumentando que, tal como os governos têm regras rigorosas para proteger o sistema financeiro do dinheiro falso, deveriam ser implementadas medidas semelhantes para salvaguardar a confiança do público em relação aos seres humanos falsos.
Ao responsabilizar os indivíduos através de acusações criminais, as nossas plataformas podem ser impedidas de serem sobrecarregadas por perfis falsos.
Investir na segurança da IA + empenhar-se na investigação
Harari sublinhou a importância de afetar um investimento significativo à segurança da IA. Sugeriu que as empresas fossem legalmente obrigadas a dedicar 20% das suas despesas de investimento à investigação de riscos potenciais e ao desenvolvimento de estratégias para os gerir eficazmente.
Reconhecendo os esforços da OpenAI, a criadora do ChatGPT, Harari mencionou o seu compromisso de atribuir 20% do seu poder de computação à segurança da IA, estabelecendo uma equipa de investigação dedicada à compreensão e controlo da IA, impedindo-a de se tornar desonesta.
Cooperação global
Harari continuou dizendo que a regulamentação eficaz da inteligência artificial e da recolha de dados deve ser um esforço mundial. Alertou para o facto de que, sem cooperação internacional, o mundo corre o risco de se fragmentar em esferas de recolha de dados controladas por um número restrito de nações e empresas.
Para evitar um futuro distópico, Harari sublinhou a necessidade de regras que dêem prioridade à proteção dos dados individuais, impeçam a manipulação de dados, aumentem a supervisão das empresas e dos governos e evitem a concentração de todos os dados numa única entidade.
Conclusão - Preservar a confiança do público
O aumento dos bots de IA nas redes sociais representa uma ameaça significativa para as sociedades democráticas, e Yuval Noah Harari apelou a consequências criminais para os responsáveis, bem como a um maior investimento na segurança da IA.
Impondo sanções rigorosas e implementando regulamentos abrangentes, as sociedades podem proteger a confiança do público, preservar os valores democráticos e garantir que os seres humanos permaneçam no controlo da conversa pública. Chegou o momento de atuar para garantir um futuro mais seguro e resiliente para o nosso mundo digital em constante mudança.