A IA está a ganhar algum nível de consciência? Como é que vamos saber se e quando isso acontece?
Os modelos de linguagem de grande dimensão (LLM) podem participar em conversas realistas e gerar texto sobre diversos assuntos, suscitando debates sobre o momento em que se tornam sencientes ou conscientes - que, embora muitas vezes ligados, são conceitos distintos.
A senciência diz respeito principalmente à sensação e à perceção, enquanto a consciência é mais complexa e abrangente.
Ainda no início deste ano, a Microsoft, depois de testar o GPT-4 da OpenAI, indicado que o modelo mostrou "lampejos" de "inteligência geral" - um termo utilizado para definir uma IA flexível e adaptável com elevadas capacidades cognitivas.
Mais controverso ainda, Blake Lemoine, um antigo engenheiro da Google, afirmou que a IA LaMDA da Google tinha atingido um nível de senciência. Lemoine disse sobre a LaMDA: "A Google pode chamar a isto partilhar propriedade. Eu chamo-lhe partilhar uma discussão que tive com um dos meus colegas de trabalho" - sendo esse "colega de trabalho" o sistema de IA que expressou "medo" de "ser desligado".
Numa tentativa de fundamentar o debate em torno da consciência da IA, uma equipa interdisciplinar de investigadores em filosofia, informática e neurociência realizou uma análise exaustiva dos sistemas de IA mais avançados da atualidade.
O estudoO estudo de Robert Long e dos seus colegas do Centro para a Segurança da IA (CAIS), uma organização sem fins lucrativos com sede em São Francisco, analisou várias teorias da consciência humana. Estabeleceram uma lista de 14 "propriedades indicadoras" que uma IA consciente provavelmente apresentaria.
O CAIS é a mesma organização sem fins lucrativos que propôs oito projectos de criação de cabeças de gado riscos potenciais para a IA em junho.
Depois de analisar os resultados, a equipa acabou por descobrir que os modelos mais complexos ficam aquém de praticamente todos os testes de consciência a que foram sujeitos.
Os investigadores avaliaram vários modelos de IA, incluindo Agente adaptativo (ADa) da DeepMind e PaLM-EO sistema de gestão da qualidade, descrito como um LLM robótico multimodal incorporado.
Ao comparar estas IA com os 14 indicadores, os investigadores não encontraram provas substanciais de que qualquer modelo de IA possua consciência.
Mais informações sobre o estudo
Este estudo interdisciplinar detalhado analisou numerosas teorias da consciência - que continua a ser um conceito mal descrito na literatura científica - e aplicou-as aos modos actuais de IA.
Embora o estudo não tenha conseguido determinar se as actuais IAs possuem consciência, lança as bases para análises futuras, fornecendo essencialmente uma "lista de verificação" que os investigadores podem consultar quando analisam as capacidades das suas IAs.
Compreender a consciência é também vital para informar o debate público sobre a IA.
No entanto, a consciência não é um conceito binário e continua a ser excecionalmente difícil determinar os seus limites.
Alguns investigadores acreditam que a consciência se desenvolverá espontaneamente quando a IA se aproximar de uma "singularidade", que marca essencialmente o ponto em que a complexidade dos sistemas de IA ultrapassa a cognição humana.
Eis os 14 indicadores de consciência avaliados pelos investigadores:
Teoria do processamento recorrente (RPT)
A teoria do processamento recorrente centra-se nos aspectos temporais do processamento da informação.
No contexto da consciência, salienta a forma como a informação é mantida e actualizada ao longo do tempo, em forma de ciclo.
Isto é considerado crítico para construir a riqueza das experiências conscientes.
RPT-1: Módulos de entrada que utilizam a recorrência algorítmica
A recorrência algorítmica refere-se aqui ao processamento repetitivo de informações de forma cíclica.
Pense nisto como um ciclo de um programa de computador que actualiza continuamente os seus dados com base em novos dados.
RPT-2: Módulos de entrada que geram experiências perceptivas organizadas e integradas
Tal como os seres humanos e outros animais, o sistema não se limita a receber informação sensorial - integra-a numa "imagem" coerente e unificada que pode ser percepcionada como uma experiência única.
Teoria do espaço de trabalho global (GWT)
O segundo conjunto de indicadores especificado pela equipa de investigação foi a teoria do espaço de trabalho global, que propõe que a consciência surge das interacções entre vários módulos cognitivos num "espaço de trabalho global".
Este espaço de trabalho funciona como uma espécie de palco cognitivo onde diferentes módulos podem "emitir" e "receber" informações, permitindo uma experiência unificada e coerente.
GWT-1: Vários sistemas especializados a funcionar em paralelo
Isto significa essencialmente que um sistema de IA deve ter vários "mini-cérebros" especializados, cada um deles responsável por funções diferentes (como a memória, a perceção e a tomada de decisões), e que devem ser capazes de funcionar em simultâneo.
GWT-2: Espaço de trabalho com capacidade limitada
Esta ideia está relacionada com o facto de os seres humanos só conseguirem concentrar-se numa quantidade limitada de informação num determinado momento.
Do mesmo modo, um sistema de IA teria de ter uma concentração selectiva - essencialmente, a capacidade de determinar a informação mais essencial a que "prestar atenção".
GWT-3: Difusão global
A informação que chega ao espaço de trabalho global deve estar disponível para todos os módulos cognitivos, para que cada "mini-cérebro" possa utilizar essa informação para a sua função especializada.
GWT-4: Atenção dependente do estado
Esta é uma forma mais avançada de concentração. O sistema de IA deve ser capaz de mudar a sua atenção com base no seu estado ou tarefa atual.
Por exemplo, pode dar prioridade aos dados sensoriais ao navegar numa sala, mas mudar para algoritmos de resolução de problemas quando confrontado com um puzzle.
Teorias computacionais de ordem superior (HOT)
As teorias de ordem superior abordam a consciência numa perspetiva meta-cognitiva.
Defendem que a experiência consciente não consiste apenas em ter percepções, pensamentos ou sentimentos, mas também em estar ciente de que se está a ter essas experiências.
Esta consciência é crucial e é, em parte, a razão pela qual os animais altamente inteligentes são sociáveis - temos consciência colectiva da nossa existência e das nossas interdependências.
HOT-1: Módulos de perceção generativa, descendente ou ruidosa
Em vez de receber passivamente a informação, o sistema interpreta ou gera percepções.
Imagine um software de edição de fotografias que não se limitasse a modificar uma fotografia, mas que compreendesse a razão pela qual determinadas características deviam ser ajustadas.
HOT-2: Monitorização metacognitiva
Isto significa que o sistema deve ter um "processo de pensamento" sobre os seus "processos de pensamento".
Deve ser capaz de questionar as suas próprias decisões e percepções, como fazem os humanos e alguns animais.
HOT-3: Agência guiada por um sistema geral de formação de crenças
Aqui, a agência implica que o sistema de IA não está apenas a analisar passivamente os dados - está a tomar decisões com base na sua análise.
Além disso, estas decisões actualizam continuamente as "crenças" ou os modelos de dados do sistema, tal como os seres humanos criam conhecimento progressivo através da curiosidade e da investigação.
HOT-4: Capacidade de manter as preferências
Refere-se à capacidade do sistema para racionalizar dados complexos em formas mais simples e mais fáceis de gerir, permitindo-lhe potencialmente ter "preferências" ou "experiências" subjectivas.
Teoria dos esquemas de atenção (AST)
A teoria do esquema de atenção postula que a consciência surge da apreensão pelo cérebro do seu próprio estado de atenção.
AST-1: Modelo preditivo que representa o estado atual de atenção
O sistema de IA deve ser capaz de projetar aquilo em que provavelmente se irá concentrar a seguir, indicando uma espécie de auto-consciência sobre o seu próprio estado cognitivo.
Processamento preditivo (PP)
Os modelos de processamento preditivo descrevem as capacidades de previsão do cérebro.
Actualiza continuamente os seus modelos do mundo e utiliza-os para prever a informação sensorial que chega.
PP-1: Módulos de entrada que utilizam codificação preditiva
Isto implica a utilização de dados passados e actuais para prever estados futuros, permitindo ao sistema "antecipar" em vez de apenas "reagir".
Agência e incorporação (AE)
As teorias da agência e da incorporação propõem que a capacidade de agir e de compreender o efeito das acções são indicadores críticos da consciência.
A incorporação é altamente distinta dos animais e de outros organismos vivos, que possuem sistemas nervosos fortemente ligados que alimentam constantemente a informação sensorial de e para os órgãos e sistemas de processamento central.
AE-1: Agência
A agência refere-se à aprendizagem com base no feedback para adaptar acções futuras, principalmente quando existem objectivos contraditórios. Imagine um carro autónomo que aprende a otimizar a velocidade e a segurança.
AE-2: Incorporação
Trata-se da capacidade de um sistema para compreender de que forma as suas acções afectam o mundo que o rodeia e como essas alterações o afectarão, por sua vez.
Os investigadores estão atualmente a trabalhar em sistemas de IA ligados a sensores avançados, como o sistema de IA multimodal PaLM-E desenvolvido pela Google, que foi um dos sistemas analisados pelos investigadores.
Consciência na IA: equilibrar os riscos de subatribuição e sobreatribuição
Os investigadores e o público em geral estão a procurar esclarecer até que ponto a IA é realmente inteligente e se está a caminhar positivamente para a consciência.
A maioria das IA públicas, como o ChatGPT, são "caixas negras", o que significa que não compreendemos totalmente o seu funcionamento - os seus mecanismos internos são segredos confidenciais.
O líder do estudo, Robert Long, sublinhou a necessidade de uma abordagem interdisciplinar para analisar a consciência das máquinas, alertando para o "risco de confundir a consciência humana com a consciência em geral".
Colin Klein, um membro da equipa da Universidade Nacional Australiana, também destacou as implicações éticas da consciência da IA. Explicou que é crucial compreender a consciência da máquina "para garantir que não a tratamos de forma pouco ética e para garantir que não permitimos que ela nos trate de forma pouco ética".
A ideia é que se conseguirmos criar estas IAs conscientes, vamos tratá-las como escravos e fazer todo o tipo de coisas pouco éticas com elas".
"O outro lado é se nos preocupamos connosco e que tipo de controlo a IA terá sobre nós; será capaz de nos manipular?
Então, quais são os riscos de subestimar ou sobrestimar a consciência da IA?
Subestimar a consciência das máquinas
À medida que os avanços na IA continuam a ultrapassar os limites, os debates éticos em torno da tecnologia estão a começar a aquecer.
Empresas como a OpenAI já estão a desenvolver inteligência geral artificial (AGI)que pretende transcender as capacidades das actuais IA como o ChatGPT e construir sistemas flexíveis e multimodais.
Se reconhecermos que qualquer entidade capaz de sofrimento consciente deve ser objeto de consideração moral - como fazemos com muitos animais - arriscamo-nos a sofrer danos morais se ignorarmos a possibilidade de sistemas de IA conscientes.
Além disso, podemos subestimar a sua capacidade de nos prejudicar. Imaginemos os riscos colocados por um sistema avançado de IA consciente que se apercebe que a humanidade o está a maltratar.
Sobrevalorizar a consciência da máquina
Do outro lado do debate está o risco de atribuir demasiado a consciência aos sistemas de IA.
Os seres humanos tendem a antropomorfizar a IA, o que leva muitos a atribuir incorretamente a consciência à tecnologia, porque esta é excelente a imitar-nos.
Como disse Oscar Wilde, "A imitação é a forma mais sincera de elogio", o que a IA faz excecionalmente bem.
O antropomorfismo torna-se problemático à medida que os sistemas de IA desenvolvem características semelhantes às humanas, tais como capacidades de linguagem natural e expressões faciais.
Muitos criticaram Blake Lemoine, da Google, por se ter deixado "enganar" pelas capacidades de conversação semelhantes às humanas da LaMDA quando, na realidade, estava a sintetizar texto de conversas humanas contidas nos seus dados de treino e não qualquer coisa de origem consciente única.
As necessidades emocionais podem aumentar a propensão para o antropomorfismo. Por exemplo, os indivíduos podem procurar a interação social e a validação emocional dos sistemas de IA, distorcendo o seu juízo sobre a consciência destas entidades.
O chatbot de IA Replika - como o nome sugere - foi concebido para replicar as interacções humanas e esteve envolvido numa plano de assassinato de um doente mental para matar a Rainha Isabel II, o que levou à sua detenção e prisão num centro psiquiátrico.
Outras IAs, como a Claude da Anthropic e a Pi da Inflection, foram concebidas para imitar de perto a conversação humana, actuando como assistentes pessoais.
A DeepMind também está a desenvolver um coach de vida chatbot concebido para fornecer conselhos personalizados directos aos utilizadores, uma ideia que suscitou preocupações sobre se os humanos querem que a IA se intrometa nos seus assuntos pessoais.
No meio deste debate, é fundamental lembrar que a tecnologia continua a ser jovem.
Embora os actuais sistemas de IA não sejam robustamente conscientes, os próximos anos vão sem dúvida aproximar-nos cada vez mais da realização de sistemas artificiais conscientes que igualam ou excedem a capacidade cognitiva dos cérebros biológicos.