OpenAI is een samenwerking aangegaan met Scale om maatwerk te leveren voor OpenAI's GPT-3.5 Turbo model dat onlangs beschikbaar is gesteld voor fijnafstelling.
Scale helpt bedrijven bij het maken van AI-producten op maat met een sterke focus op machine learning, het maken van datasets en labeling.
De prestaties die een verfijnde versie van GPT-3.5 Turbo biedt het een aantrekkelijk vooruitzicht voor bedrijven die hun eigen AI-platforms willen bouwen. Maar het fine-tuning proces kan een uitdaging zijn.
Daarom zegt OpenAI samen te werken met Scale "gezien hun ervaring met het helpen van bedrijven om gegevens veilig en effectief te gebruiken voor AI".
De COO van OpenAI, Brad Lightcap, zei: "Scale breidt ons vermogen uit om de kracht van fine-tuning naar meer bedrijven te brengen, voortbouwend op hun enterprise AI-ervaring om bedrijven te helpen OpenAI-modellen beter toe te passen voor hun unieke behoeften."
We werken samen met @scale_AI om ondersteuning te bieden voor bedrijven die GPT-3.5 fijn afstellen op hun eigen gegevens. https://t.co/JAr8u2qXlx
- OpenAI (@OpenAI) 24 augustus 2023
Scale illustreerde de mogelijkheden die het verfijnen van GPT-3.5 biedt door te wijzen op de resultaten die het bedrijf behaalde bij een van zijn klanten in de financiële dienstverlening, Brex genaamd.
In zijn blogpost zegt Scale: "Door de GPT-3.5 fijnafstemmings-API te gebruiken op Brex-gegevens die geannoteerd zijn met de Data Engine van Scale, zagen we dat het fijnafgestelde GPT-3.5-model beter presteerde dan het standaard GPT-3.5 turbomodel 66% van die tijd."
De CEO van Brex zei dat het gebruik van een verfijnde GPT-3.5 "een game changer voor ons is geweest, waardoor we AI-ervaringen van hoge kwaliteit kunnen leveren, vergelijkbaar met GPT-4, met veel lagere kosten en een lagere latentie."
De prestaties van OpenAI's GPT-modellen hebben nooit ter discussie gestaan, maar de kosten om ze te openen en uit te voeren wel. Het verfijnen van de modellen zorgt voor kortere prompts met efficiëntere antwoorden.
De snellere en nauwkeurigere prestaties betekenen dat er minder tokens worden verzonden tijdens API-oproepen en dat levert een onmiddellijke kostenbesparing op ten opzichte van de basismodellen.
Hoewel Meta zijn modellen gratis blijft uitdelen, maakt de kosten-prestatieverhouding het betaalde aanbod van OpenAI misschien toch een betere koop.
De privacy en veiligheid van gegevens is nog steeds een knelpunt voor veel bedrijven hoewel. En in de aankondiging van de samenwerking zei OpenAI opnieuw dat "Zoals altijd zijn de gegevens die in en uit de fine-tuning API worden verzonden eigendom van de klant en worden ze niet gebruikt door OpenAI, of een andere organisatie, om andere modellen te trainen."
Als bedrijven daar niet in trappen, zal OpenAI zijn propriëtaire benadering van zijn modellen moeten heroverwegen. OpenAI zal een manier moeten vinden om veilige, private versies van zijn GPT-modellen aan te bieden die lokaal kunnen draaien.