Os investigadores da Microsoft desenvolveram um Algoritmo de Pensamentos (AoT) que constitui uma mudança de paradigma na forma como a IA resolve os problemas.
O AoT foi desenvolvido para que os LLMs pensem mais como os humanos e se tornem mais eficientes na resolução de problemas. A Microsoft afirma que o seu nova abordagem combina as "nuances do raciocínio humano e a precisão disciplinada das metodologias algorítmicas".
O atual processo da Cadeia de Pensamento que os LLMs, como o ChatGPT, usam, baseia-se em padrões estatísticos para ir do prompt ao output. É uma progressão muito linear do problema para a solução, uma vez que o LLM divide a solução em passos mais pequenos.
O problema com esta abordagem é que os dados de treino nem sempre são suficientes, pelo que por vezes faltam alguns passos. Quando isto acontece, o LLM é criativo e alucina para preencher as lacunas com uma resposta incorrecta.
Uma técnica mais avançada que alguns LLMs usam é encontrar uma solução usando a abordagem da Árvore de Pensamento. O LLM segue vários caminhos lineares do problema para a solução e pára quando encontra uma solução inviável.
Mas isto envolve muitas consultas e consome muita memória e recursos informáticos.
O que é que torna AoT melhor?
Com o AoT, o algoritmo avalia os primeiros passos de uma solução potencial e decide desde o início se vale a pena prosseguir com uma abordagem ou não. Isto evita que o algoritmo siga obstinadamente por um caminho obviamente errado e depois tenha de inventar algo.
Além disso, em vez de uma abordagem linear, o AoT dá ao LLM a capacidade de pesquisar várias soluções potenciais e até mesmo voltar atrás quando necessário. Em vez de começar do início quando chega a um beco sem saída, pode voltar ao passo anterior e continuar a explorar.
A abordagem atual utilizada pelos LLM é como ir de carro de casa até ao destino, perder-se e depois voltar para casa para tentar um caminho diferente. A abordagem AoT consiste em regressar à última curva errada e tentar um novo percurso a partir desse ponto.
Esta abordagem de "aprendizagem em contexto" permite que o modelo seja muito mais estruturado e sistemático na forma como resolve os problemas. É muito menos exigente em termos de recursos e pode potencialmente erradicar o problema que os MLT têm com a alucinação.
Mesmo com esta nova abordagem, a IA ainda está longe de pensar e raciocinar como os humanos. No entanto, com AoT, parece que foi dado um passo significativo nessa direção.
Uma conclusão que os investigadores tiraram das suas experiências foi que os seus "resultados sugerem que instruir um LLM utilizando um algoritmo pode levar a um desempenho superior ao do próprio algoritmo".
É exatamente isso que o nosso cérebro faz. Temos a capacidade inerente de aprender novas competências que não sabíamos antes. Imagine se uma ferramenta como o ChatGPT fosse capaz de aprender através do raciocínio sem necessidade de formação adicional.
Esta nova abordagem poderá também levar a que a IA seja mais transparente no seu processo de "pensamento", dando-nos uma visão do que está realmente a acontecer por detrás do código.