Les chercheurs de Microsoft ont mis au point un algorithme de pensée (AoT) qui constitue un changement de paradigme dans la manière dont l'IA résout les problèmes.
L'AoT a été développé pour que les LLM pensent davantage comme des humains et deviennent plus efficaces dans la résolution de problèmes. Microsoft affirme que son nouvelle approche combine les "nuances du raisonnement humain et la précision disciplinée des méthodologies algorithmiques".
Le processus actuel de la chaîne de pensée utilisé par les LLM tels que ChatGPT s'appuie sur des modèles statistiques pour passer de l'invite à la sortie. Il s'agit d'une progression très linéaire du problème à la solution, car le LLM divise la solution en étapes plus petites.
Le problème de cette approche est que les données d'apprentissage ne sont pas toujours suffisantes et qu'il manque parfois certaines étapes. Dans ce cas, le LLM fait preuve de créativité et hallucine de combler les lacunes par une réponse incorrecte.
Une technique plus avancée utilisée par certains LLM consiste à trouver une solution à l'aide de l'approche de l'arbre de pensée. Le LLM suit plusieurs chemins linéaires du problème à la solution et s'arrête lorsqu'il tombe sur une solution non viable.
Mais cela implique un grand nombre de requêtes et est très gourmand en mémoire et en ressources informatiques.
Qu'est-ce qui rend AoT meilleur ?
Avec l'AoT, l'algorithme évalue les premières étapes d'une solution potentielle et décide d'emblée si une approche vaut la peine d'être poursuivie ou non. Cela lui évite de s'entêter dans une voie manifestement erronée et de devoir ensuite inventer quelque chose.
En outre, au lieu d'une approche linéaire, l'AoT donne au mécanisme d'apprentissage tout au long de la vie la possibilité de rechercher de multiples solutions potentielles et même de revenir en arrière si nécessaire. Au lieu de recommencer depuis le début lorsqu'il se trouve dans une impasse, il peut revenir à l'étape précédente et continuer à explorer.
L'approche actuelle des LLM revient à conduire de son domicile à sa destination, à se perdre, puis à retourner chez soi pour essayer un autre itinéraire. L'approche de l'AoT consiste à revenir sur ses pas jusqu'à la dernière erreur de parcours et à essayer un nouvel itinéraire à partir de là.
Cette approche "d'apprentissage en contexte" permet au modèle d'être beaucoup plus structuré et systématique dans la manière dont il résout les problèmes. Elle est beaucoup moins gourmande en ressources et pourrait potentiellement éradiquer le problème d'hallucination des LLM.
Même avec cette nouvelle approche, l'IA est encore loin de penser et de raisonner comme les humains. Avec l'AoT, il semble qu'un pas important ait été fait dans cette direction.
L'une des conclusions que les chercheurs ont tirées de leurs expériences est que leurs "résultats suggèrent que l'instruction d'un LLM à l'aide d'un algorithme peut conduire à des performances supérieures à celles de l'algorithme lui-même".
C'est exactement ce que fait notre cerveau. Nous avons la capacité inhérente d'apprendre de nouvelles compétences que nous ne connaissions pas auparavant. Imaginez qu'un outil comme ChatGPT soit capable d'apprendre par le raisonnement sans avoir besoin d'une formation supplémentaire.
Cette nouvelle approche pourrait également permettre à l'IA d'être plus transparente dans son processus de "réflexion", en nous donnant un aperçu de ce qui se passe réellement derrière le code.