Au début du mois, Meta a annoncé la sortie de Llama 2 et sa mise à disposition gratuite en coopération avec Microsoft, mais Meta déclare à présent qu'elle prévoit de monétiser son dernier LLM.
Llama peut être téléchargé gratuitement sur Meta, Hugging Face et quelques autres plateformes. Le télécharger est la partie la plus facile, mais le faire fonctionner de manière utilisable est le défi. Il faut beaucoup de puissance de calcul pour que Llama 2 soit à la hauteur de son potentiel, et c'est là que les services d'informatique en nuage comme Azure de Microsoft et AWS d'Amazon entrent en jeu.
Meta a déclaré qu'elle s'associait à Microsoft en tant que partenaire privilégié en matière d'informatique dématérialisée (cloud computing) lorsqu'elle a annoncé qu'elle s'associait à Microsoft. a annoncé la sortie de Llama 2. Il est compréhensible que Microsoft et d'autres fournisseurs de services d'informatique en nuage veuillent faire payer les utilisateurs pour l'utilisation de leur coûteuse infrastructure d'informatique en nuage, mais Meta veut aussi sa part du gâteau.
Bien que Llama soit techniquement gratuit, Meta a déclaré que les entreprises ayant 700 millions ou plus d'utilisateurs actifs par mois devront obtenir une licence pour l'utiliser. La nature exacte de cette licence n'est pas claire, mais elle impliquera des rentrées d'argent pour Meta.
Lors d'une conférence téléphonique sur les résultats trimestriels, Mark Zuckerberg a déclaré : "Si vous êtes quelqu'un comme Microsoft, Amazon ou Google, et que vous allez essentiellement revendre les services, nous pensons que nous devrions recevoir une partie des revenus pour cela".
On ne sait pas exactement de combien d'argent il s'agit, mais s'attendre à ce que Facebook offre le Llama 2 "gratuitement" est peut-être un peu naïf. "Je ne pense pas que cela représentera un revenu important à court terme, mais à long terme, j'espère que ce sera quelque chose", a déclaré M. Zuckerberg.
un grand jour https://t.co/5CTqULsfuT
- Meta (@Meta) 18 juillet 2023
Pouvez-vous vraiment utiliser Llama 2 gratuitement ?
Techniquement, vous pouvez utiliser Llama 2 gratuitement, mais en pratique, cela vous coûtera de l'argent. À moins que le matériel informatique personnel ne devienne beaucoup plus puissant et beaucoup moins cher, l'utilisation de l'informatique en nuage (cloud computing) est vraiment votre meilleure option.
Un développeur a expliqué comment déployer Llama 2 sur votre ordinateur personnel mais ses résultats mettent en évidence le problème que pose l'exécution du LLM sur une machine locale. Il n'a pas précisé l'unité centrale qu'il utilisait, mais a indiqué que sa machine disposait de 20 Go de RAM. C'est une quantité décente de RAM, mais le chargement du modèle a pris 51 secondes et il a fallu près de 4 minutes pour générer une réponse de 250 jetons à la question "Quel est le sens de la vie ?
En effectuant la même recherche sur la page d'accueil de Google Colab Le service gratuit d'informatique en nuage a mis 16 secondes pour générer la même réponse. Colab est probablement le meilleur moyen d'utiliser Llama 2 gratuitement, mais il est limité.
Meta dit donc en substance : "Hé, notre outil est gratuit ! Payez-les pour qu'ils exécutent le modèle sur leur GPU et ils nous paieront ensuite".
Llama 2 est-il vraiment open-source ?
Outre le fait que Llama 2 soit "libre" mais pas vraiment, Meta a également été critiqué pour avoir qualifié le LLM d'"open-source". Un billet de blog sur le L'initiative Open Source (OSI) explique que pour qu'un logiciel soit réellement libre, la licence ne doit pas limiter qui peut l'utiliser ou comment le logiciel peut être utilisé.
Les représentants de l'OSI ne disent pas que Meta ne devrait pas imposer de limites commerciales, mais ils préféreraient que Zuckerberg ne continue pas à appeler Llama 2 open-source alors que ce n'est pas vraiment le cas.
Malgré le bruit et l'incertitude quant à la manière dont Meta prévoit de l'utiliser, il sera intéressant de voir comment les entreprises utiliseront le Llama 2 et comment OpenAI et Stability AI répondront avec leurs offres.