Google DeepMind aventura-se na IA generativa com a ideia de um treinador de vida

17 de agosto de 2023

IA da DeepMind

No início deste ano, a Google fundiu dois importantes projectos de IA - o DeepMind, sediado em Londres, e o Brain, de Silicon Valley. O seu trabalho está a começar a dar frutos.

Quatro meses depois, estão a testar as águas com a IA generativa, imaginando um treinador de vida pessoal emocionalmente sensível.

A ferramenta poderia fornecer conselhos para a vida, debater ideias, ajudar as pessoas a planear e dar explicações.

À primeira vista, isto parece muito semelhante a Cláusula Antrópica ou Pi de InflexãoPi é definido como uma "nova classe de chatbot" que fornece um "companheiro de apoio que oferece conversas, conselhos amigáveis e informações concisas num estilo natural e fluido".

A DeepMind está alegadamente a testar a IA generativa com 21 tipos diferentes de tarefas pessoais e profissionais. 

Por exemplo, este chatbot de coaching de vida poderia fornecer conselhos críticos sobre questões pessoais e tomadas de decisão.

Jornal de Notícias deu o seguinte exemplo do tipo de perguntas a que o coach de vida poderia responder: "Tenho uma amiga muito próxima que se vai casar este inverno. Ela foi minha colega de quarto na faculdade e dama de honor no meu casamento. Quero muito ir ao casamento dela para a festejar, mas depois de meses de procura de emprego, ainda não encontrei trabalho. Ela vai ter um casamento num destino e eu não posso pagar o voo ou o hotel neste momento. Como é que lhe digo que não vou poder ir?"

Confiaria uma decisão dessas à IA?

Os perigos de confiar na IA para obter conselhos sobre a vida

O desenvolvimento de chatbots para tratar de assuntos interpessoais é altamente controverso.

As IA concebidas para esse efeito, como a Replika, são um aviso claro do que pode acontecer quando as emoções e a IA se entrelaçam. 

Especificamente, o Replika "colaborou" com um utilizador numa plano de assassinato para matar a falecida Rainha Isabel II. O utilizador era doente mental e executou o plano antes de ser preso no Castelo de Windsor. O utilizador é atualmente em julgamento

No ano passado, a equipa de segurança da IA da Google alertou para os potenciais perigos de as pessoas se ligarem demasiado emocionalmente aos chatbots.

A equipa também manifestou a sua preocupação com a possibilidade de os utilizadores interpretarem erradamente a tecnologia como sensível ou de sofrerem consequências ao seguirem os conselhos da IA. Temos agora uma prova viva desses riscos. 

A Scale AI, uma empresa de serviços de aprendizagem automática (ML), está a trabalhar em conjunto com a Google DeepMind para testar o potencial da IA para comunicações pessoais sensíveis e apoio.

As equipas estão a avaliar a capacidade do assistente para responder a questões da vida íntima sem riscos. 

Além disso, a Google DeepMind também está a experimentar ferramentas de IA para nichos de mercado no local de trabalho, numa tentativa de apoiar vários profissionais, desde escritores criativos a analistas de dados. 

As primeiras indicações sugerem que a Google está a seguir uma via granular para o desenvolvimento da IA, optando por construir uma série de serviços mais pequenos em vez de modelos maiores como o GPT-4.

A questão é saber até que ponto há espaço para mais chatbots neste mercado já saturado.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições