A Microsoft anunciou o lançamento iminente do seu assistente de IA integrado no ChatGPT, o "Microsoft 365 Copilot", que será integrado no seu software de escritório.
A partir de 1 de novembro, a ferramenta de IA será lançada para os utilizadores em todo o mundo. Como parte das suas muitas funcionalidades, a IA pode gerar resumos das reuniões do Microsoft Teams para pessoas que não podem ou não querem participar.
Por outras palavras, o Copilot pode participar em reuniões por si - talvez ganhe alguns clientes só por isso.
Além disso, a IA tem a capacidade de redigir e-mails, criar documentos Word, desenhar gráficos em folhas de cálculo e até conceber apresentações em PowerPoint através de instruções.
A visão da Microsoft para o Copilot é clara. Acreditam que irá "eliminar o 'trabalho pesado'" - essencialmente suavizando as coisas que as pessoas não querem fazer. Como a Microsoft afirma, "os utilizadores do Teams a nível global participam em três vezes mais reuniões por semana do que em 2020".
Um problema potencial é que o Copilot da Microsoft pode criar situações em que as pessoas interagem inadvertidamente com a IA. Pode estar numa reunião e o assistente de IA de alguém estar a ouvir. Para onde vão esses dados e será que estão seguros?
A Microsoft afirma com firmeza que todos os dados processados pelo Copilot estão protegidos e não são reutilizados para posterior treino de IA.
Embora muitas ferramentas já forneçam notas de texto geradas automaticamente a partir de reuniões, o envolvimento direto da IA coloca novas questões.
Além disso, alguns regulamentos, como o AI Act da Europa e as regras de IA da China, exigem que as pessoas sejam informadas se estão a interagir com IA em vez de humanos.
Collette Stallbaumer, directora do Microsoft 365, afirmou: "É uma ferramenta e as pessoas têm a responsabilidade de a utilizar de forma responsável". Stallbaumer continuou: "Só se tem acesso aos dados que, de outra forma, seria permitido ver. Respeita as políticas de dados".
E acrescentou: "Posso não vos dizer, quando vos envio essa resposta, que utilizei um assistente de IA para me ajudar a gerá-la. Mas o ser humano está sempre no meio e sempre no controlo".
No entanto, subsistem dúvidas, sobretudo porque o AI Act da UE coloca firmemente a responsabilidade pela utilização segura no colo do programador.
"As pessoas têm a responsabilidade de o utilizar de forma responsável" talvez não seja uma defesa justa.
A abordagem da Microsoft em relação à utilização incorrecta da IA tem sido sinuosa. Por exemplo, a empresa prometeu para pagar as custas judiciais de qualquer pessoa que seja processada usando o Copilot.
Isto funcionou de certa forma como uma admissão de que o Copilot é de facto capaz de produzir informações protegidas por direitos de autor que as empresas não podem utilizar.
À medida que ferramentas como o Copilot se integram firmemente na vida e nos fluxos de trabalho das pessoas, é difícil prever quais as funções que serão abrangidas por regulamentos futuros e quais as que passarão despercebidas.