Claude.ai est la réponse d'Anthropic à ChatGPT et le modèle d'IA qui l'alimente vient de recevoir une mise à jour majeure.
Claude 2.1 offre une amélioration significative des performances par rapport à Claude 2.0. La plus grande amélioration est probablement le doublement de la fenêtre contextuelle, mais il y a aussi d'autres caractéristiques impressionnantes.
Anthropique article de blog entre dans les détails, mais voici un résumé simplifié des améliorations.
Fenêtre contextuelle
La fenêtre contextuelle d'un modèle détermine le nombre de jetons qu'il peut garder en mémoire. Claude 2.1 dispose désormais d'une fenêtre contextuelle de 200 000 jetons, soit le double de celle de Claude 2.0 et la plus grande de l'industrie. A titre de comparaison, GPT-4 Turbo a une fenêtre contextuelle de 128k.
Cela signifie que vous pouvez déposer environ 150 000 mots, ou 500 pages, dans un chat avec Claude et lui poser des questions en rapport avec le sujet. En théorie.
Greg Kamradt a effectué un test de résistance de la capacité de rappel de Claude 2.1 et a constaté qu'elle avait du mal à être précise lorsque le contexte s'allongeait et que le fait à rappeler se situait quelque part au milieu du document.
Claude 2.1 (200 000 jetons) - Test de pression sur le rappel de contexte long
Nous aimons tous augmenter la longueur des contextes, mais qu'en est-il de la performance ?
Anthropic m'a proposé un accès anticipé à Claude 2.1 et j'ai donc répété l'analyse de "l'aiguille dans la botte de foin" que j'avais faite sur GPT-4.
Voici ce que j'ai trouvé :... pic.twitter.com/B36KnjtJmE
- Greg Kamradt (@GregKamradt) 21 novembre 2023
C'est encore assez impressionnant malgré quelques problèmes de précision de rappel.
Plus de précision et d'honnêteté
Claude 2.1 fait moins d'erreurs et vous mentira moins souvent. Il a 30% plus de chances de donner une réponse correcte qu'auparavant.
Comme les autres modèles d'IA, il aura toujours des hallucinations, mais elles seront deux fois moins nombreuses que celles de Claude 2.0.
Claude 2.1 a également amélioré son humilité intellectuelle. Il est également presque deux fois plus susceptible de refuser de répondre à une question lorsqu'il ne connaît pas la réponse plutôt que d'inventer quelque chose.
Utilisation de l'outil API
Claude peut désormais interagir avec les bases de données d'un utilisateur, rechercher une réponse dans des ressources web ou interagir avec d'autres outils via des API.
Selon Anthropic, un utilisateur peut désormais définir un ensemble d'outils, poser une question et Claude décidera alors des outils à utiliser pour répondre à la question.
Claude s'intègre déjà avec Zapier, donc cette capacité supplémentaire à traduire le langage naturel en API ou en appels de fonction pourrait être énorme. Pourrions-nous bientôt voir la version d'Anthropic des GPT d'OpenAI ?
La fonction d'utilisation d'outils est en version bêta, il faudra donc attendre pour voir ce dont elle est capable.
Invites du système
Cette fonction permet à un appel API de donner à Claude un contexte et des instructions sur la manière de répondre avant qu'une invite humaine ne soit saisie.
Cela signifie que vous pouvez demander à Claude d'adopter un certain personnage ou une certaine voix et de lui dire ce qu'il doit ou ne doit pas faire lorsqu'il interagit avec l'utilisateur. Lors des interactions suivantes avec Claude, les réponses du chat resteront plus longtemps dans le personnage.
Si vous souhaitez découvrir Claude 2.1, vous pouvez vous rendre sur l'interface de discussion à l'adresse suivante claude.ai. La fenêtre contextuelle de 200k n'est disponible que pour Claude Pro Cependant, les utilisateurs ne sont pas les seuls à être concernés.