A OpenAI estabeleceu uma parceria com a Scale para fornecer a personalização do modelo GPT-3.5 Turbo da OpenAI, que foi recentemente disponibilizado para ajuste fino.
A Scale ajuda as empresas a criar produtos de IA personalizados com uma forte incidência na aprendizagem automática, na criação de conjuntos de dados e na rotulagem.
O desempenho que um versão aperfeiçoada do GPT-3.5 Turbo torna-a uma perspetiva apelativa para as empresas que procuram construir as suas próprias plataformas de IA. Mas o processo de afinação pode ser um desafio.
É por isso que a OpenAI diz que está a fazer uma parceria com a Scale "dada a sua experiência em ajudar as empresas a aproveitar os dados de forma segura e eficaz para a IA".
O COO da OpenAI, Brad Lightcap, disse: "O Scale amplia nossa capacidade de levar o poder do ajuste fino a mais empresas, aproveitando sua experiência em IA corporativa para ajudar as empresas a aplicar melhor os modelos OpenAI para suas necessidades exclusivas".
Estamos a trabalhar em parceria com @scale_AI para fornecer suporte às empresas que estão a afinar o GPT-3.5 nos seus dados proprietários. https://t.co/JAr8u2qXlx
- OpenAI (@OpenAI) 24 de agosto de 2023
A Scale ilustrou a oportunidade que o ajuste fino do GPT-3.5 apresenta, apontando para os resultados que a empresa alcançou com um dos seus clientes de serviços financeiros chamado Brex.
Na sua publicação no blogue, a Scale afirmou: "Ao utilizar a API de afinação GPT-3.5 nos dados Brex anotados com o motor de dados da Scale, verificámos que o modelo GPT-3.5 afinado superou o modelo turbo GPT-3.5 66% de sempre".
O CEO da Brex disse que o uso de um GPT-3.5 ajustado "foi um divisor de águas para nós, permitindo-nos oferecer experiências de IA de alta qualidade, comparáveis ao GPT-4, com custo e latência muito mais baixos".
O desempenho dos modelos GPT da OpenAI nunca foi posto em causa, mas sim o custo de acesso e execução dos mesmos. A afinação dos seus modelos permite obter pedidos mais curtos com respostas mais eficientes.
O desempenho mais rápido e preciso significa que são enviados menos tokens durante as chamadas API, o que proporciona uma poupança imediata de custos em relação aos modelos básicos.
Embora a Meta continue a distribuir os seus modelos gratuitamente, a relação custo/desempenho pode fazer com que a oferta paga da OpenAI seja uma melhor compra.
A privacidade e a segurança dos dados continuam a ser uma questão ponto de atrito para muitas empresas no entanto. E no seu anúncio da parceria, a OpenAI voltou a dizer que "como sempre, os dados enviados para dentro e para fora da API de afinação são propriedade do cliente e não são utilizados pela OpenAI, ou por qualquer outra organização, para treinar outros modelos".
Se as empresas não aceitarem este refrão, a OpenAI terá de repensar a sua abordagem proprietária dos seus modelos. A OpenAI terá de encontrar uma forma de oferecer versões seguras e privadas dos seus modelos GPT que possam ser executadas localmente.