OpenAI se ha asociado con Scale para ofrecer la personalización del modelo GPT-3.5 Turbo de OpenAI, que recientemente se ha puesto a disposición para su ajuste.
Scale ayuda a las empresas a crear productos de IA personalizados con un fuerte enfoque en el aprendizaje automático, la creación de conjuntos de datos y el etiquetado.
El rendimiento que un versión mejorada de GPT-3.5 Turbo ofrece una perspectiva atractiva para las empresas que desean crear sus propias plataformas de IA. Pero el proceso de puesta a punto puede ser complicado.
Por eso OpenAI dice que se asocia con Scale "dada su experiencia ayudando a las empresas a aprovechar de forma segura y eficaz los datos para la IA."
El COO de OpenAI, Brad Lightcap, dijo: "Scale amplía nuestra capacidad de llevar el poder del ajuste fino a más empresas, aprovechando su experiencia en IA empresarial para ayudar a las empresas a aplicar mejor los modelos de OpenAI para sus necesidades únicas."
Colaboramos con @scale_AI para ofrecer soporte a las empresas que ajustan GPT-3.5 a sus datos propietarios. https://t.co/JAr8u2qXlx
- OpenAI (@OpenAI) 24 de agosto de 2023
Scale ilustró la oportunidad que supone afinar GPT-3.5 señalando los resultados que la empresa obtuvo con uno de sus clientes de servicios financieros llamado Brex.
En la entrada de su blog, Scale afirma: "Al utilizar la API de ajuste fino GPT-3.5 en datos Brex anotados con el motor de datos de Scale, vimos que el modelo GPT-3.5 ajustado superaba en rendimiento al modelo GPT-3.5 turbo 66% original de la época".
El consejero delegado de Brex afirmó que el uso de una GPT-3.5 afinada "ha supuesto un cambio de juego para nosotros, ya que nos permite ofrecer experiencias de IA de alta calidad, comparables a la GPT-4, con un coste mucho menor y una latencia más baja".
Nunca se ha cuestionado el rendimiento de los modelos GPT de OpenAI, pero sí el coste de acceder a ellos y ejecutarlos. El perfeccionamiento de sus modelos permite acortar los mensajes con respuestas más eficientes.
El rendimiento más rápido y preciso significa que se envían menos tokens durante las llamadas a la API, lo que supone un ahorro de costes inmediato con respecto a los modelos básicos.
Aunque Meta sigue distribuyendo sus modelos de forma gratuita, la relación coste-rendimiento puede hacer que la oferta de pago de OpenAI sea una mejor compra.
La privacidad y seguridad de los datos sigue siendo un punto de fricción para muchas empresas sin embargo. Y en su anuncio de la asociación OpenAI volvió a decir que "Como siempre, los datos enviados dentro y fuera de la API de ajuste fino son propiedad del cliente y no son utilizados por OpenAI, ni por ninguna otra organización, para entrenar otros modelos."
Si las empresas no se lo creen, OpenAI tendrá que replantearse el enfoque propietario de sus modelos. OpenAI tendrá que encontrar una forma de ofrecer versiones seguras y privadas de sus modelos GPT que puedan ejecutarse localmente.