O diretor executivo da OpenAI, Sam Altman, agitou a comunidade tecnológica quando anunciou que a inteligência artificial geral (AGI) tinha sido "alcançada internamente", para depois dizer que estava "apenas a fazer memes".
Sam Altman não é tão controverso como Elon Musk, mas tornou-se uma figura um pouco polarizadora devido a uma brincadeira que alguns consideram inadequada. Afinal de contas, ele pode ser considerado um dos indivíduos mais influentes da tecnologia.
A piada de Altman foi feita através de uma publicação no fórum Reddit r/singularity, onde afirmou: "A AGI foi alcançada internamente".
AGI, abreviatura de artificial general intelligence (inteligência artificial geral), refere-se a sistemas de IA que são paralelos ou mesmo superiores às capacidades cognitivas humanas. A OpenAI intitula-se atualmente como uma empresa de desenvolvimento de AGI e pretende ser a primeira a "romper" com esse paradigma.
Altman editou rapidamente a sua declaração irreverente, acrescentando uma advertência: "É óbvio que isto é apenas um meme, não tenham calma, quando a AGI for alcançada não será anunciada com um comentário no Reddit".
Muitos foram para o Reddit e para o X acusar Altman de trollagem - talvez um pouco chocante quando as pessoas estão genuinamente preocupadas com o futuro da IA.
EDIT: "agi has been achieved internally (EDIT obviously this is just memeing, you'all have no chill! when agi is achieved it will not be announced with a reddit comment...)" pic.twitter.com/nrEHnvuEcS
- Fumador (@SmokeAwayyy) 26 de setembro de 2023
A "singularidade"
O fórum, r/singularidadeO livro dedica-se principalmente ao debate sobre a singularidade tecnológica - o momento em que a inteligência dos computadores poderá potencialmente eclipsar a inteligência humana, conduzindo a mudanças imprevisíveis e irreversíveis no mundo tal como o conhecemos.
O pano de fundo deste comentário tem raízes num cenário hipotético escrito pelo filósofo da Universidade de Oxford Nick Bostrom no seu influente livro de 2014, "Superinteligência: Caminhos, perigos, estratégias.”
Bostrom descreve os riscos existenciais que uma IA ultra-avançada pode representar. Uma das suas experiências de pensamento, conhecida como Paperclip Maximiser, retrata uma AGI cuja intenção inocente - produzir o maior número possível de clips - poderia inadvertidamente levar à queda da humanidade.
Ele explica que a IA consideraria os corpos humanos como fontes valiosas de átomos para fabricar clips.
Numa alusão bem-humorada a esta experiência de pensamento, após o post de Altman, Will Depue, investigador da OpenAI, partilhou no Twitter uma imagem renderizada por IA que mostrava "os escritórios da OpenAI a transbordar de clipes de papel!
NOTÍCIAS DE ÚLTIMA HORA: Os escritórios da OpenAI estão a transbordar de clipes de papel! pic.twitter.com/rnV4dLi0cU
- will depue (@willdepue) 26 de setembro de 2023
Bostrom também afirma: "A IA aperceber-se-á rapidamente de que seria muito melhor se não existissem humanos, porque os humanos podem decidir desligá-la".
É um enredo familiar de ficção científica - as máquinas na Matrix começaram a colher humanos para fins energéticos, por exemplo.
Como diz Morpheus, "o corpo humano gera mais bioeletricidade do que uma bateria de 120 volts e mais de 25.000 BTUs de calor corporal". Bostrum teoriza que a IA pode chegar a essas conclusões se for provocada nos cenários certos.
O facto de a humanidade ser substituída por clipes de papel seria, no mínimo, um destino peculiar para a raça humana.