OpenAI s'est associé à Scale pour fournir une personnalisation du modèle GPT-3.5 Turbo d'OpenAI qui a été récemment mis à disposition pour un réglage fin.
Scale aide les entreprises à créer des produits d'IA personnalisés en mettant l'accent sur l'apprentissage automatique, la création d'ensembles de données et l'étiquetage.
La performance qu'un version améliorée de GPT-3.5 Turbo En conséquence, les entreprises qui cherchent à créer leurs propres plateformes d'intelligence artificielle sont tentées de le faire. Mais le processus de mise au point peut s'avérer difficile.
C'est la raison pour laquelle OpenAI déclare avoir conclu un partenariat avec Scale "compte tenu de leur expérience en matière d'aide aux entreprises pour qu'elles exploitent efficacement et en toute sécurité les données pour l'IA".
Brad Lightcap, COO d'OpenAI, a déclaré : "Scale étend notre capacité à apporter la puissance du réglage fin à davantage d'entreprises, en s'appuyant sur leur expérience de l'IA d'entreprise pour aider les entreprises à mieux appliquer les modèles OpenAI à leurs besoins uniques."
Nous sommes en partenariat avec @scale_AI afin d'aider les entreprises à adapter la norme GPT-3.5 à leurs données propriétaires. https://t.co/JAr8u2qXlx
- OpenAI (@OpenAI) 24 août 2023
Scale a illustré l'opportunité que représente l'affinement de GPT-3.5 en mettant en avant les résultats obtenus par l'entreprise avec l'un de ses clients du secteur des services financiers, Brex.
Dans son billet de blog, Scale a déclaré : "En utilisant l'API de réglage fin GPT-3.5 sur les données Brex annotées avec le moteur de données de Scale, nous avons constaté que le modèle GPT-3.5 réglé avec précision a surpassé le modèle GPT-3.5 turbo 66% de base".
Le PDG de Brex a déclaré que l'utilisation d'un GPT-3.5 affiné "a changé la donne pour nous, nous permettant d'offrir des expériences d'IA de haute qualité, comparables au GPT-4, avec un coût et une latence bien moindres".
La performance des modèles GPT d'OpenAI n'a jamais été remise en question, mais le coût d'accès et d'exécution l'a été. L'affinement de ces modèles permet d'obtenir des messages plus courts et des réponses plus efficaces.
Les performances plus rapides et plus précises signifient que moins de jetons sont envoyés lors des appels API, ce qui permet de réaliser des économies immédiates par rapport aux modèles de base.
Bien que Meta continue de proposer ses modèles gratuitement, le rapport coût/performance peut encore faire de l'offre payante d'OpenAI un meilleur achat.
La protection de la vie privée et la sécurité des données sont toujours un sujet d'actualité. point d'achoppement pour de nombreuses entreprises Cependant, il n'en est rien. Dans son annonce du partenariat, OpenAI précise à nouveau que "comme toujours, les données envoyées dans et hors de l'API de réglage fin appartiennent au client et ne sont pas utilisées par OpenAI, ni par aucune autre organisation, pour entraîner d'autres modèles".
Si les entreprises n'acceptent pas ce refrain, OpenAI devra repenser son approche propriétaire de ses modèles. OpenAI devra trouver un moyen d'offrir des versions sécurisées et privées de ses modèles GPT qui peuvent fonctionner localement.