OpenAI a annoncé que les développeurs peuvent désormais affiner son modèle GPT-3.5 Turbo en utilisant des données personnalisées.
Le réglage fin consiste à prendre la version de base d'un modèle tel que GPT-3.5 Turbo, sur lequel repose ChatGPT, et à l'entraîner sur un ensemble de données personnalisées très spécifiques.
Le modèle de base de GPT-3.5 Turbo permet d'effectuer un grand nombre de tâches différentes. Une fois qu'un développeur l'a affiné sur un ensemble de données axé sur un cas d'utilisation spécifique, il devient très performant dans l'exécution d'un ensemble de tâches très spécifiques. C'est comme si l'on prenait un homme à tout faire et qu'on le formait pour qu'il devienne un très bon plombier.
Les entreprises peuvent désormais former une version de ChatGPT à l'aide de GPT-3.5 Turbo afin qu'elle produise des résultats adaptés à leur activité.
Par exemple, une entreprise peut souhaiter que toutes les réponses de ChatGPT soient rédigées dans une langue spécifique ou qu'elles soient systématiquement plus courtes ou plus longues. Les réponses peuvent également être formées de manière à ce qu'elles soient toujours fournies dans un format spécifique ou qu'elles suivent un ton cohérent de communication d'entreprise.
Si vous souhaitez utiliser ChatGPT pour fournir systématiquement un type spécifique de complétion de code ou vous concentrer sur la composition d'appels API, vous pouvez désormais l'entraîner à le faire avec GPT-3.5 Turbo.
Jusqu'à présent, les développeurs n'ont pu qu'affiner les anciennes variantes moins performantes de GPT-3. L'utilisation d'une version affinée de GPT-3.5 Turbo permet d'obtenir de bien meilleures performances.
Dans son annonce, OpenAI a déclaré que "les premiers tests ont montré qu'une version affinée de GPT-3.5 Turbo peut égaler, voire surpasser, les capacités de base du niveau GPT-4 sur certaines tâches étroites".
GPT-3.5 Turbo dispose d'une fenêtre de contexte de jetons de 4k, soit deux fois plus que les modèles précédents à réglage fin. Une version 16k du modèle sera disponible pour un réglage fin plus tard dans l'année.
Nous venons de lancer le réglage fin pour GPT-3.5 Turbo ! Le réglage fin vous permet d'entraîner le modèle sur les données de votre entreprise et de l'exécuter à grande échelle. Les premiers tests ont montré que le GPT-3.5 Turbo affiné peut égaler ou dépasser le GPT-4 sur des tâches restreintes : https://t.co/VaageW9Kaw pic.twitter.com/nndOyxS2xs
- OpenAI (@OpenAI) 22 août 2023
Ce n'est pas gratuit, mais c'est de moins en moins cher
OpenAI continue de facturer les appels d'API à ses modèles, mais la possibilité d'affiner le modèle peut réduire les coûts globaux de fonctionnement du modèle.
Le coût de l'utilisation de GPT-3.5 est de $0,008/1k tokens pour la formation, $0,012/1k tokens pour l'utilisation des entrées et $0,016/1k tokens pour l'utilisation des sorties.
Le nombre de jetons contenus dans les invites que vous envoyez et les réponses que vous obtenez déterminent le coût de l'aller-retour. En affinant un modèle, vous pouvez l'entraîner à répondre à des invites plus courtes. OpenAI indique que certains des premiers testeurs ont pu réduire la longueur des messages jusqu'à 90%.
Cette réduction du nombre de jetons envoyés permet de réduire les coûts associés, mais aussi de rendre les appels à l'API beaucoup plus rapides. La possibilité de réduire les coûts grâce à un réglage précis est cruciale pour OpenAI, qui est en concurrence avec des modèles gratuits tels que le Llama 2.
Même si OpenAI fait payer les appels à l'API, les gains d'efficacité et l'amélioration des performances peuvent rendre son fonctionnement moins onéreux que celui des modèles gratuits à code source ouvert comme le Llama 2. Les modèles gratuits doivent toujours fonctionner quelque part et les coûts informatiques ne sont pas bon marché.
La mise à disposition de GPT-3.5 Turbo pour un réglage fin est également opportune si l'on considère la façon dont le système GPT-3.5 Turbo a été mis en place. Microsoft a pris des mesuresà présenter des modèles d'IA concurrents sur sa plateforme Azure.
Alors que les préoccupations des entreprises concernant la sécurité des données de ChatGPT persistent, OpenAI a tenu à réaffirmer que "comme pour toutes nos API, les données envoyées dans et hors de l'API de réglage fin appartiennent au client et ne sont pas utilisées par OpenAI, ni par aucune autre organisation, pour entraîner d'autres modèles".
Reste à savoir si cela suffira à convaincre les sceptiques. Si la question se résume aux coûts de traitement et aux performances, l'offre d'OpenAI deviendra plus attrayante que les principaux modèles d'IA gratuits.