Los investigadores de Microsoft han desarrollado un Algoritmo de Pensamientos (AoT) que supone un cambio de paradigma en la forma en que la IA resuelve los problemas.
La AoT se desarrolló para que los LLM pensaran más como los humanos y fueran más eficientes en la resolución de problemas. Microsoft afirma que su nuevo enfoque combina los "matices del razonamiento humano y la precisión disciplinada de las metodologías algorítmicas".
El proceso actual de Cadena de Pensamiento que utilizan los LLM como ChatGPT se basa en patrones estadísticos para ir de la pregunta al resultado. Es una progresión muy lineal del problema a la solución, ya que el LLM divide la solución en pasos más pequeños.
El problema de este enfoque es que los datos de entrenamiento no siempre son suficientes, por lo que a veces faltan algunos pasos. Cuando esto ocurre, el LLM se vuelve creativo y alucina rellenar los huecos con una respuesta incorrecta.
Una técnica más avanzada que utilizan algunos LLM es encontrar una solución utilizando el enfoque del Árbol del Pensamiento. El LLM sigue múltiples caminos lineales desde el problema hasta la solución y se detiene cuando llega a una solución inviable.
Pero esto implica muchas consultas y consume mucha memoria y recursos informáticos.
¿Qué hace que AoT sea mejor?
Con AoT, el algoritmo evalúa los primeros pasos de una posible solución y decide desde el principio si merece la pena seguir o no un planteamiento. De este modo se evita que el algoritmo se obstine en seguir un camino obviamente equivocado y tenga que inventar algo.
Además, en lugar de un enfoque lineal, la TOA ofrece al LLM la posibilidad de buscar entre múltiples soluciones potenciales e incluso retroceder cuando sea necesario. En lugar de empezar de nuevo desde el principio cuando llega a un callejón sin salida, puede volver al paso anterior y seguir explorando.
El enfoque actual de los LLM es como conducir desde casa hasta el destino, perderse y volver a casa para probar una ruta diferente. El enfoque de la EdT consiste en volver al último punto en el que te equivocaste e intentar una nueva ruta a partir de ese punto.
Este enfoque de "aprendizaje en contexto" permite que el modelo sea mucho más estructurado y sistemático a la hora de resolver problemas. Consume muchos menos recursos y podría erradicar el problema que tienen los LLM con las alucinaciones.
Incluso con este novedoso enfoque, la IA aún está lejos de pensar y razonar como lo hacen los humanos. Sin embargo, con AoT parece que se ha dado un paso importante en esa dirección.
Una de las conclusiones a las que llegaron los investigadores a partir de sus experimentos fue que sus "resultados sugieren que instruir a un LLM utilizando un algoritmo puede conducir a un rendimiento superior al del propio algoritmo".
Eso es exactamente lo que hace nuestro cerebro. Tenemos la capacidad inherente de aprender nuevas habilidades que antes desconocíamos. Imagina que una herramienta como ChatGPT fuera capaz de aprender razonando sin necesidad de formación adicional.
Este nuevo enfoque también podría hacer que la IA fuera más transparente en su proceso de "pensamiento", dándonos una idea de lo que realmente ocurre detrás del código.