Microsoft pagará honorários legais por potencial infração de direitos de autor do Copilot

8 de setembro de 2023

IA Microsoft

A Microsoft prometeu assumir o ónus legal de quaisquer infracções aos direitos de autor que surjam de conteúdos gerados por IA através das suas ferramentas, incluindo o Copilot.

O Copilot é uma ferramenta de IA que se integra diretamente na família de software Microsoft 365, que inclui o Word, o PowerPoint e o Excel.

Ainda não está disponível ao público, mas permitirá aos utilizadores criar e resumir automaticamente textos, criar apresentações, criar gráficos, analisar dados e muito mais.

De acordo com Hossein Nowbar, conselheiro geral da Microsoft para os assuntos jurídicos das empresas, a Microsoft assumirá todos os potenciais riscos jurídicos envolvidos para os clientes comerciais que utilizem os seus produtos de IA, desde que respeitem as "barreiras de proteção e os filtros de conteúdo" incorporados.

Por outras palavras, se o Copilot produzir conteúdo que infrinja os direitos de autor de outra pessoa e esta o processar, a Microsoft pagará.

O anúncio foi feito em pormenor através de uma publicação no blogue oficial da Microsoftque diz: "Especificamente, se um terceiro processar um cliente comercial por violação de direitos de autor por utilizar os Copilotos da Microsoft ou os resultados que estes geram, defenderemos o cliente e pagaremos o montante de quaisquer sentenças ou acordos adversos que resultem do processo, desde que o cliente tenha utilizado as protecções e os filtros de conteúdo que incorporámos nos nossos produtos."

A Microsoft pretende aliviar os receios sobre o potencial da IA generativa para produzir involuntariamente material protegido por direitos de autor.

Ilanah Fhima, professora de Direito da Propriedade Intelectual na University College London, observa que "esta medida abre o mercado" e "torna o software mais utilizável, uma vez que elimina um dos obstáculos para as empresas, se souberem que têm essa garantia".

Esta foi uma medida inesperada por parte da Microsoft - prometer apanhar os cacos das batalhas legais dos clientes é algo que só faz sentido na era da IA. 

Além disso, a estipulação de que os clientes devem utilizar as "barreiras de proteção e filtros de conteúdo" dos produtos fornece à Microsoft uma camada adicional de proteção contra a utilização indevida.

Preocupações éticas e reacções anteriores

A ação da Microsoft levanta questões sobre se a empresa pretende promover a confiança do público nos seus produtos ou simplesmente reforçar a sua adoção. 

Pagar os honorários legais é uma coisa, mas não é uma questão de saber se os dados de treino da OpenAI incluem conteúdos protegidos por direitos de autor.

No início do ano, o Abobe Firefly afastou potenciais problemas de direitos de autor, afirmando que o modelo tinha sido treinado apenas com fotografias do Adobe Stock e não com dados retirados da Internet.

A empresa assumiu um compromisso idênticoA Firefly não se compromete a pagar honorários legais por quaisquer potenciais questões legais decorrentes dos resultados do Firefly, mas esse é um compromisso relativamente fácil de assumir, uma vez que é proprietária dos dados de treino.

A Microsoft não pode oferecer o mesmo nível de transparência, apesar de oferecer as mesmas garantias legais.

A verdade é que a revelação da natureza dos dados de treino do Copilot não seria possível, uma vez que é construído com os modelos GPT da OpenAI, que foram quase de certeza treinados em pelo menos algum material protegido por direitos de autor obtido através de práticas questionáveis.

Isto não quer dizer que a OpenAI tenha validado os direitos de autor dos criadores, mas alguém o fez e a OpenAI teria sabido.

A publicação no blogue da Microsoft expressa que a empresa valoriza os direitos de autor e de propriedade, afirmando: "É fundamental que os autores mantenham o controlo dos seus direitos ao abrigo da lei dos direitos de autor e obtenham um retorno saudável das suas criações... e devemos garantir que o conteúdo necessário para treinar e fundamentar os modelos de IA não está fechado nas mãos de uma ou de algumas empresas de uma forma que sufocaria a concorrência e a inovação."

Embora o Copilot seja baseado no ChatGPT, a publicação no blogue leva-nos a crer que equipou-o com filtros que protegem rigorosamente os resultados da violação dos direitos de autor.

De acordo com a redação da Microsoft, estas barreiras de proteção específicas podem ser exclusivas do Copilot e do consistem em "classificadores, metaprompts, filtragem de conteúdos e monitorização operacional e deteção de abusos, incluindo os que potencialmente infringem conteúdos de terceiros".

Nomeadamente, a Microsoft também afirma que os filtros "reduzem a probabilidade de o Copilots devolver conteúdos infractores".

A expressão "reduzir a probabilidade" implica que, apesar dos filtros, ainda há uma *chance* de as ferramentas violarem direitos de autor.

A processos judiciais alegam que as ferramentas de IA produzem conteúdos que se assemelham demasiado a material protegido por direitos de autor, incluindo algumas secções literais de livros ou resumos que não são explicáveis se o ChatGPT não tivesse acesso ilimitado aos próprios livros.

A OpenAI rejeitou recentemente estes casos comosem fundamento," embora o processo judicial ainda esteja a decorrer.

Falta de clareza

Atualmente, não há clareza sobre onde terminam os modelos GPT da OpenAI, onde começa o Copilot e qual a extensão dos ajustes finos da Microsoft.

Em outra mensagemSegundo a Microsoft, "o Copilot não se limita a ligar o ChatGPT ao Microsoft 365; combina o poder dos grandes modelos de linguagem (LLMs) com os seus dados no Microsoft Graph (incluindo o seu calendário, e-mails, chats, documentos, reuniões e muito mais) e as aplicações do Microsoft 365 para transformar as suas palavras na ferramenta de produtividade mais poderosa do planeta."

A Microsoft publicou um vídeo que explica como o Copilot irá funcionar quando for lançado, mas não entra em pormenores.

Por enquanto, podemos presumir que os novos filtros de conteúdo e barreiras de proteção da Microsoft filtram agressivamente material potencialmente protegido por direitos de autor, talvez em maior grau do que o ChatGPT. A Microsoft poderá ter higienizado o Copilot para neutralizar a sua utilização de material potencialmente protegido por direitos de autor.

Implicações para o sector em geral

A audaciosa iniciativa da Microsoft de assumir os riscos legais da violação de direitos de autor significa mais do que uma simples decisão empresarial.

Como as empresas bem sabem, estamos na era do Oeste Selvagem da regulamentação da IA. Isto pode ser rotulado como uma risco calculado, mas isso também implica que se trata de um jogo de azar.

Uma vez que as leis e os precedentes sobre a IA e os direitos de autor ainda estão em formação, a empresa pode não estar a encarar o barril de taxas legais exorbitantes - ainda. 

Dinâmica jurídica global

Quando a Abobe fez a mesma promessa, o conselheiro geral da empresa, Dana Rao, disse: "A lei não está resolvida e não posso dizer para que lado vão os casos de direitos de autor, mas posso garantir que, tendo nascido nos Estados Unidos da América, vai haver muitos processos judiciais, pelo que o seguro é bastante atrativo [para os nossos clientes empresariais] e não é realmente um truque."

É muito bom discutir os direitos de autor da IA como parte integrante dos quadros legais dos EUA, mas como empresa multinacional, a política da Microsoft pode criar um precedente que tem de ser navegado em várias jurisdições legais, cada uma com as suas próprias leis de direitos de autor e atitudes em relação à IA.

Isto poderia forçar a Microsoft a assumir um papel que talvez não queira: o de árbitro global que estabelece a norma de facto para a forma como as questões de direitos de autor da IA são tratadas em todo o mundo.

Suponha que o Copilot produz um texto questionável que se assemelha ao trabalho protegido por direitos de autor de alguém - as interpretações sobre se a produção viola de forma abrangente a lei dos direitos de autor podem variar de jurisdição para jurisdição.

Por exemplo, a lei de direitos de autor do Reino Unido difere em vários aspectos da dos EUA. Enquanto a lei de direitos de autor dos EUA se centra na "utilização justa", que é uma norma algo flexível, o Reino Unido baseia-se num conceito chamado "tratamento justo", que é mais limitado e tem de se enquadrar em categorias prescritas, como a investigação, a revisão e a reportagem noticiosa.

Nos EUA, uma entidade pode alegar uma "utilização transformadora", argumentando que uma nova criação acrescenta algo de novo ou altera substancialmente a obra original de uma forma que a pode isentar da violação de direitos de autor.

No entanto, no Reino Unido, a falta de uma cláusula de "utilização transformadora" torna mais difícil navegar pelas questões de direitos de autor para conteúdos gerados por IA, aumentando assim potencialmente o risco jurídico da Microsoft ao oferecer os seus produtos de IA a clientes sediados no Reino Unido.

Além disso, a abordagem do Reino Unido aos direitos morais - que protege a relação pessoal entre um autor e a sua obra - é mais sólida do que nos EUA.

Se uma IA replicasse substancialmente uma obra protegida por direitos de autor, a proteção mais forte dos direitos morais no Reino Unido poderia acrescentar mais um nível de complexidade ao cálculo jurídico da Microsoft.

Assim, a política da Microsoft poderá ter implicações de grande alcance na definição de uma norma global de facto.

Esta norma teria de ser suficientemente flexível para ter em conta as diferenças entre os quadros globais, mas suficientemente vigorosa para oferecer uma proteção e garantias significativas aos seus clientes.

Presumivelmente, a promessa será submetida a um certo nível de análise jurídica, o que poderá clarificar a forma como é aplicada aos clientes globais se, de facto, tiver algum efeito fora dos EUA.

Reduzir as barreiras para os clientes e aumentá-las para os concorrentes

Tal como a Abobe, a Microsoft está a reduzir as barreiras legais à adoção da IA nas empresas, comprometendo-se a apoiar legalmente os seus clientes.

No entanto, esta medida pode ter repercussões no ecossistema das empresas em fase de arranque. As empresas em fase de arranque, que muitas vezes impulsionam a inovação mas não têm capacidade financeira para assumir grandes responsabilidades, podem ter cada vez mais dificuldade em competir num mercado em que os pesos pesados oferecem um "seguro jurídico" como parte do pacote.

Já existem preocupações de que os futuros regulamentos relativos à IA sejam extremamente dispendiosos para os pequenos intervenientes do sector.

Esta situação poderá alterar o panorama do desenvolvimento da IA, consolidando o poder nas mãos daqueles que podem dar-se ao luxo de correr riscos jurídicos.

É assim que queremos que seja o sector da IA? Um sector em que as empresas comercializam os seus produtos comprometendo-se a pagar taxas legais?

Do ponto de vista ético, esta iniciativa está a pisar águas turvas. Embora a Microsoft afirme valorizar os direitos de autor e até pretenda protegê-los através destas barreiras, está a operar num espaço onde o caminho "correto" ainda está a ser debatido.

Além disso, ao assumir o ónus legal, a Microsoft pode ser vista como contornando a necessidade de considerações éticas mais rigorosas no desenvolvimento e utilização da IA.

Em vez de investir em tecnologia que respeita intrinsecamente os direitos de propriedade intelectual, a empresa opta por "limpar" qualquer potencial confusão a posteriori.

Isto pode ser visto como uma forma de troca ética, em que a Microsoft está a trocar a promessa de apoio jurídico por uma maior adoção dos seus serviços, possivelmente à custa da promoção de práticas de IA mais éticas.

Outras empresas seguirão o exemplo? Provavelmente.

Mais uma vez, este cenário só faz sentido na era da IA.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições