Une nouvelle approche permettrait de multiplier par 300 la vitesse des grands modèles linguistiques
Des scientifiques de l'ETH Zurich ont découvert que les grands modèles de langage (LLM) n'ont besoin d'utiliser qu'une petite partie de leurs neurones...