Llama 2 para funcionar no seu dispositivo sem Internet até 2024

28 de julho de 2023

Parceria entre a Qualcomm e a Meta para colocar o Llama 2 no dispositivo

A Meta está a estabelecer uma parceria com a Qualcomm para permitir que as aplicações baseadas no Llama 2 sejam executadas nos seus chips Snapdragon até 2024.

O nível atual de capacidade de computação dos dispositivos pessoais não é suficiente para executar LLMs como a Llama 2 de forma eficaz em telemóveis ou computadores portáteis. Para utilizar estas poderosas ferramentas de IA, é geralmente necessário executá-las em servidores de computação em nuvem.

Quando a Meta anunciou o lançamento da Llama 2, estabeleceu uma parceria com a Microsoft para utilizar o Azure como a sua solução de computação em nuvem preferida. No entanto, prevê-se que a próxima geração de chips Snapdragon da Qualcomm traga poder de processamento suficiente aos dispositivos pessoais para que as aplicações de IA baseadas na Llama 2 possam ser executadas num dispositivo pessoal sem necessidade de computação em nuvem. 

Durante uma entrevista com o Diretor Executivo da Stability No início deste ano, o entrevistador ficou incrédulo quando Emad Mostaque afirmou que, em 2024, teríamos o ChatGPT a funcionar nos nossos telemóveis sem Internet. Mas agora parece que a sua afirmação ousada não era de todo rebuscada.

Relativamente à sua parceria com a MetaDurga Malladi, executiva da Qualcomm, disse: "Aplaudimos a abordagem da Meta para IA aberta e responsável e estamos empenhados em impulsionar a inovação e reduzir as barreiras à entrada para desenvolvedores de qualquer tamanho, trazendo IA generativa para o dispositivo".

O atual chip Snapdragon X75 já utiliza a IA para melhorar a conetividade da rede e a precisão da localização em telemóveis 5G. Assim que o Llama 2 estiver a funcionar no dispositivo com o chip da próxima geração, poderá conversar com a sua aplicação de IA mesmo quando estiver em modo de avião ou numa área sem cobertura.

A outra grande vantagem deste desenvolvimento é o facto de fazer baixar o custo das aplicações de IA. Ter de fazer chamadas API para um LLM executado num servidor em nuvem custa dinheiro e esses custos são inevitavelmente transferidos para os utilizadores da aplicação.

Se a aplicação puder interagir com o LLM que está a ser executado no dispositivo, então não há custos incorridos. E mesmo com a incrível velocidade das redes 5G, uma aplicação de IA executada localmente, como um assistente de voz, responderá ainda mais rapidamente.

A execução de aplicações de IA no dispositivo sem a necessidade de enviar dados para servidores na nuvem também melhorará as preocupações com a privacidade e a segurança.

A parceria da Qualcomm Meta neste projeto é um grande negócio e um sinal de desenvolvimentos interessantes que estão para vir. Em 2020, a Apple já se gabava de que o chip M1 utilizava o seu Apple Neural Engine para acelerar as tarefas de aprendizagem automática.

Espera-se ver muito mais fabricantes de chips como a Nvidia a trabalhar para que os grandes modelos de IA sejam executados no dispositivo num futuro próximo.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições