Artistas adicionados ao processo Stability AI, Midjourney

3 de dezembro de 2023

Uma ação judicial arquivada, intentada por um grupo de artistas contra a Stability AI e outros, foi novamente apresentada com a inclusão de mais sete queixosos.

A ação judicial original viu as suas queixas de violação de direitos de autor rejeitadas em outubro pelo juiz William Orrick, que não concordou que gerar imagens semelhantes fosse o mesmo que violar direitos de autor.

Embora rejeitando este aspeto da queixa, Orrick disse que os queixosos podiam voltar a apresentar uma ação alterada, na qual teriam de ser mais convincentes nas suas alegações contra a Stability AI, Midjourney, DeviantArt e Runway.

Os queixosos originais eram os artistas Sarah Anderson, Kelly McKernan e Karla Ortiz. A elas juntam-se agora H. Southworth, Grzegorz Rutkowski, Gregory Manchess, Gerald Brom, Jingna Zhang, Julia Kaye e Adam Ellis.

O processo apresentado de novo contém alguns argumentos interessantes que, se forem aceites pelo tribunal, terão ramificações significativas para todos os modelos de IA generativa treinados com dados protegidos por direitos de autor.

O diretor executivo da Stability AI, Emad Mostaque, é conhecido por falar de improviso e por fazer frequentemente afirmações ousadas ou sensacionalistas. Muitas das suas palavras são citadas como prova contra a sua empresa no processo.

Pode ler o processos judiciais alterados aquimas aqui estão alguns destaques notáveis.

Pode realmente fazer uma cópia do original?

Os pedidos de direitos de autor anteriores foram indeferidos, em parte porque o juiz decidiu que gerar uma imagem semelhante não era o mesmo que produzir uma cópia de uma imagem.

A nova apresentação diz que estes modelos podem duplicar os seus dados de treino e cita Mostaque dizendo: "Pegámos em 100.000 gigabytes de imagens e comprimimo-las num ficheiro de dois gigabytes que pode recriar qualquer uma dessas [imagens] e iterações das mesmas".

Cita ainda Mostaque dizendo: "Ironicamente [o] principal financiamento da estabilidade, exceto eu, é... artistas... LOL"

A nova queixa afirma que "a lei dos direitos de autor protege as obras dos artistas contra infracções, criando direitos exclusivos dos artistas de fazerem cópias das suas obras, de fazerem obras derivadas das suas obras protegidas por direitos de autor".

A palavra "derivado" é fundamental aqui. Se pedir ao Midjourney para criar uma imagem ao estilo de Kelly McKernan, será que você e o Midjourney violaram os direitos de autor de Kelly McKernan? Há que ter pena do artista quando isto acontece:

Os conjuntos de dados LAION

O LAION criou o conjunto de dados LAION-5B com milhares de milhões de imagens. O conjunto de dados não contém cópias de imagens, mas sim os URLs das localizações das imagens. Para treinar o seu modelo, precisa de ir buscar essas imagens e o LAION criou um software que lhe permite fazer isso.

O processo alega que o LAION permitiu a violação de direitos autorais ao fazer isso e que a Stability AI foi cúmplice. Em agosto de 2022, o CEO da Stability, Mostaque, disse "Eu financiei o LAION, conjunto de dados subjacente para ... Difusão Estável". Mostaque desde então negou isso.

Os conjuntos de dados LAION são fundamentais para a maioria dos geradores de imagens de IA. Se a utilização do conjunto de dados LAION-5B for considerada uma infração aos direitos de autor, a maioria dos seus geradores de imagens favoritos será encerrada.

O GPT-4 Vision foi treinado nos conjuntos de dados LAION? A OpenAI não o diz, mas isso pode tornar-se um grande problema para eles também.

O Stable Diffusion armazena cópias de imagens?

Na ação judicial inicial, os advogados da Stability AI alegaram que era errado dizer que o modelo Stable Diffusion continha cópias das imagens com as quais foi treinado. Afirmaram que era impossível armazenar milhares de milhões de imagens num modelo com cerca de 2 GB.

O novo pedido de registo insiste que, através da aprendizagem automática, a Stable Diffusion armazena, de forma inovadora, cópias comprimidas de imagens protegidas por direitos de autor.

A declaração alterada cita Mostaque a descrever a difusão estável numa entrevista gravada de agosto de 2022:

"Vale a pena dar um passo atrás e pensar na loucura que isto é: pegámos em cem terabytes de dados - cem mil mil megabytes de imagens - dois mil milhões delas - e reduzimo-las a um ficheiro de 2-4 gigabytes. E esse ficheiro pode criar tudo o que já viu. É uma loucura, não é? É o mais comprimido que se pode conseguir".

Um caso importante para a IA de geração

Há várias outras questões importantes levantadas no processo que, uma vez decididas, terão impacto nos artistas e nas empresas que estão por detrás dos modelos de IA que geram as suas imagens.

Parece que não há forma de voltar a colocar este génio da IA na garrafa dos direitos de autor. Será que a Stability AI e outras empresas do género vão ter de pagar uma ação colectiva de reparação de culpa?

Ou talvez a latitude da "utilização justa" seja alargada para acomodar realidades de IA que não existiam há um ano.

Seja como for, esta ação judicial vai ter efeitos dramáticos na indústria e no modo de vida dos artistas. Também pode fazer com que Emad Mostaque escolha as suas palavras com mais cuidado no futuro.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições