OpenAI hat sich mit Scale zusammengetan, um die Anpassung des OpenAI GPT-3.5 Turbo-Modells zu ermöglichen, das kürzlich für die Feinabstimmung zur Verfügung gestellt wurde.
Scale unterstützt Unternehmen bei der Entwicklung von maßgeschneiderten KI-Produkten mit Schwerpunkt auf maschinellem Lernen, der Erstellung von Datensätzen und der Beschriftung.
Die Leistung, die ein Feinabgestimmte Version von GPT-3.5 Turbo Das macht sie zu einer attraktiven Perspektive für Unternehmen, die ihre eigenen KI-Plattformen aufbauen wollen. Doch der Prozess der Feinabstimmung kann eine Herausforderung sein.
Aus diesem Grund arbeitet OpenAI nach eigenen Angaben mit Scale zusammen, "da das Unternehmen Erfahrung darin hat, Unternehmen bei der sicheren und effektiven Nutzung von Daten für KI zu unterstützen."
Brad Lightcap, COO von OpenAI, sagte: "Scale erweitert unsere Möglichkeiten, die Macht der Feinabstimmung an mehr Unternehmen weiterzugeben, indem wir auf ihrer Erfahrung mit Enterprise AI aufbauen, um Unternehmen dabei zu helfen, OpenAI-Modelle besser für ihre individuellen Bedürfnisse einzusetzen."
Wir arbeiten zusammen mit @scale_AI Unterstützung für Unternehmen bei der Feinabstimmung von GPT-3.5 für ihre eigenen Daten. https://t.co/JAr8u2qXlx
- OpenAI (@OpenAI) August 24, 2023
Scale veranschaulichte die Möglichkeiten, die die Feinabstimmung von GPT-3.5 bietet, anhand der Ergebnisse, die das Unternehmen mit einem seiner Finanzdienstleistungskunden namens Brex erzielt hat.
In seinem Blog-Post sagte Scale: "Durch die Verwendung der GPT-3.5-Feinabstimmung-API auf Brex-Daten, die mit der Data Engine von Scale annotiert wurden, haben wir gesehen, dass das feinabgestimmte GPT-3.5-Modell das Standard-GPT-3.5-Turbomodell 66% der Zeit übertrifft."
Der CEO von Brex sagte, dass die Verwendung eines fein abgestimmten GPT-3.5 "für uns ein Wendepunkt war, der uns in die Lage versetzt hat, qualitativ hochwertige KI-Erlebnisse zu liefern, die mit GPT-4 vergleichbar sind, und das bei wesentlich geringeren Kosten und niedrigeren Latenzzeiten".
Die Leistung der GPT-Modelle von OpenAI stand nie in Frage, wohl aber die Kosten für den Zugriff auf sie und ihre Ausführung. Die Feinabstimmung der Modelle ermöglicht kürzere Eingabeaufforderungen mit effizienteren Antworten.
Die schnellere und genauere Leistung bedeutet, dass bei API-Aufrufen weniger Token gesendet werden, was eine sofortige Kosteneinsparung gegenüber den Basismodellen bedeutet.
Auch wenn Meta seine Modelle weiterhin kostenlos anbietet, könnte das Preis-Leistungs-Verhältnis das kostenpflichtige Angebot von OpenAI immer noch zu einem besseren Kauf machen.
Der Schutz der Privatsphäre und die Sicherheit von Daten ist immer noch ein Knackpunkt für viele Unternehmen allerdings. Und in der Ankündigung der Partnerschaft sagte OpenAI noch einmal: "Wie immer sind die Daten, die in und aus der Feinabstimmungs-API gesendet werden, Eigentum des Kunden und werden weder von OpenAI noch von einer anderen Organisation zum Trainieren anderer Modelle verwendet."
Wenn Unternehmen das nicht glauben, wird OpenAI seinen proprietären Ansatz für seine Modelle überdenken müssen. OpenAI wird einen Weg finden müssen, um sichere, private Versionen seiner GPT-Modelle anzubieten, die lokal ausgeführt werden können.