A OpenAI está finalmente a lançar o seu assistente de voz para os assinantes do ChatGPT Plus, mas faltam-lhe algumas das funcionalidades que a empresa apresentou na sua demonstração original.
O Modo de Voz Avançado (AVM) foi demonstrado pela primeira vez em maio, mas as preocupações com alinhamento de segurança e a capacidade da AVM para reproduzir conteúdos protegidos por direitos de autor impediram o seu lançamento. A controvérsia sobre uma das vozes chamada "Sky" que se parece muito com a Scarlett Johansson provavelmente também não ajudou.
A OpenAI deu a entender, com humor, a frustrante longa espera pelo AVM no seu anúncio de lançamento.
O Advanced Voice está a ser implementado para todos os utilizadores Plus e Team no ChatGPT ao longo da semana.
Enquanto esperavas pacientemente, adicionámos Instruções Personalizadas, Memória, cinco novas vozes e sotaques melhorados.
Também pode dizer "Sorry I'm late" em mais de 50 línguas. pic.twitter.com/APOqqhXtDg
- OpenAI (@OpenAI) 24 de setembro de 2024
O AVM vem com cinco novas vozes, incluindo uma com sotaque australiano, mas os fãs do filme "Her" ficarão desapontados por saber que a voz de Sky foi removida. As novas vozes são Arbor, Maple, Sol, Spruce e Vale, elevando o total para nove.
Conheça as cinco novas vozes. pic.twitter.com/F9BOUaJqG1
- OpenAI (@OpenAI) 24 de setembro de 2024
Outra funcionalidade que os utilizadores ainda não terão acesso é a capacidade de visão do AVM. Quando a OpenAI demonstrou originalmente o assistente de voz, este podia aceder à câmara do telefone e responder a dados visuais. Por enquanto, o AVM só tem a modalidade de voz.
Não se sabe quando, ou se, o AVM vai receber o dom da visão. Poderá ser simplesmente uma medida estratégica para reduzir as exigências de computação nos servidores da OpenAI, à medida que os utilizadores se apressam a experimentar o AVM.
No entanto, o AVM vem com algumas novas funcionalidades. O AVM armazena as "instruções personalizadas" do utilizador sobre a forma como pretende que o modelo fale. O utilizador pode especificar uma cadência específica ou a forma como pretende que o modelo se dirija a si. Também permite que o utilizador forneça informações pessoais para que o AVM possa dar respostas mais relevantes em termos contextuais.
A funcionalidade "memória" permite que o ChatGPT se lembre das conversas para as referir em interações posteriores.
Os utilizadores já estão a partilhar vídeos de formas criativas de utilização do AVM.
Voz avançada em ChatGPT afina a minha guitarra. pic.twitter.com/1H6mYZTCq7
- Pietro Schirano (@skirano) 24 de setembro de 2024
Se estiver no Reino Unido, na UE ou na Suíça, poderá ter de esperar algum tempo até que o AVM seja ativado no seu dispositivo. A OpenAI ainda não indicou quando é que a funcionalidade será implementada a nível mundial.