A Microsoft publicou o seu contrato de serviços atualizado, que inclui agora cinco regras relacionadas com a inteligência artificial.
O Contrato de Serviços Microsoft rege todas as interacções que o utilizador tem com qualquer um dos seus "produtos e serviços em linha para o consumidor".
A inclusão das regras de IA dá uma ideia de como a Microsoft planeia utilizar os seus dados, mas também destaca as preocupações que a empresa tem em relação à IA.
As cinco novas regras dos serviços de IA estabelecem
- Engenharia reversa. O utilizador não pode utilizar os serviços de IA para descobrir quaisquer componentes subjacentes dos modelos, algoritmos e sistemas. Por exemplo, não pode tentar determinar e remover os pesos dos modelos.
- Extração de dados. A menos que explicitamente permitido, o utilizador não pode utilizar métodos de recolha de dados da Web, de colheita de dados da Web ou de extração de dados da Web para extrair dados dos serviços de IA.
- Limites à utilização de dados dos Serviços de IA. O utilizador não pode utilizar os serviços de IA, ou os dados dos serviços de IA, para criar, treinar ou melhorar (direta ou indiretamente) qualquer outro serviço de IA.
- Utilização do Conteúdo do Utilizador. Como parte do fornecimento dos serviços de IA, a Microsoft irá processar e armazenar as entradas do utilizador no serviço, bem como os resultados do serviço, para efeitos de monitorização e prevenção de utilizações ou resultados abusivos ou prejudiciais do serviço.
- Reclamações de terceiros. O utilizador é o único responsável por responder a quaisquer reclamações de terceiros relativas à sua utilização dos serviços de IA, em conformidade com a legislação aplicável (incluindo, mas não se limitando a, violação de direitos de autor ou outras reclamações relacionadas com a produção de conteúdos durante a sua utilização dos serviços de IA).
Uma rápida análise das três primeiras regras em termos gerais mostra que a Microsoft não quer que utilize a IA para fazer engenharia inversa de nenhuma das suas ferramentas ou modelos de IA.
É interessante que a primeira regra utilize o exemplo da determinação dos pesos dos modelos da Microsoft.
Os pesos são os parâmetros que um modelo de aprendizagem automática aprende durante a formação para fazer previsões com base nos dados de entrada.
A Microsoft gasta muitos recursos informáticos na formação dos seus modelos e não quer que ninguém tenha acesso aos pormenores do resultado final.
A quarta regra diz que a Microsoft estará atenta à forma como o utilizador utiliza os seus produtos de IA para evitar "utilizações ou resultados abusivos ou prejudiciais", sem definir o que considera abusivo ou prejudicial.
Curiosamente, essa regra é pouco pormenorizada e não esclarece a utilização dos seus dados como O Zoom tentou recentemente.
A quinta regra sobre reivindicações de terceiros diz basicamente que se utilizar a IA da Microsoft para criar conteúdos que violem a lei dos direitos de autor, está por sua conta. O que parece bastante justo.
Quer utilize o OneDrive para armazenar ficheiros ou a Xbox para jogar o seu jogo favorito, está essencialmente a dizer que aceita estes novos termos.
A Microsoft junta-se a uma série de empresas que utilizam a IA, como a Zoom e a Googleque estão a tentar acompanhar a evolução da legislação e as preocupações dos utilizadores sobre a forma como os seus dados são utilizados.
Enquanto os editores de ferramentas de IA tentam proteger-se legalmente, os criadores de conteúdos como a O New York Times está a mudar os seus termos para bloquear a utilização dos seus dados para treinar modelos de IA. O New York Times diz agora especificamente que a utilização não comercial dos seus conteúdos não inclui o treino de modelos de IA.
É de esperar que haja processos judiciais e acções judiciais de grande envergadura, à medida que os advogados de ambas as partes tentam perceber como podemos utilizar a IA e manter todos satisfeitos.