Em 2024, a raiva aumenta com a má utilização da IA pelas empresas: o que se segue?

12 de janeiro de 2024

O mês de janeiro de 2024 começou com a notícia de que a Midjourney, uma das principais forças no mundo da geração de imagens por IA, utilizou os nomes e estilos de mais de 16 000 artistas sem o seu consentimento para treinar os seus modelos de geração de imagens. 

Pode ver a base de dados de artistas no Anexo J de uma ação judicial apresentada contra a Midjourney, a Stability AI e a DeviantArt.

Na mesma semana dessa divulgação, o cientista cognitivo Dr. Gary Marcus e o artista concetual Reid Southen lançaram uma análise no IEEE intitulado "Generative AI Has a Visual Plagiarism Problem" (A IA geradora tem um problema de plágio visual).

Realizaram uma série de experiências com os modelos de IA Midjourney e DALL-E 3 para explorar a sua capacidade de gerar imagens que pudessem infringir material protegido por direitos de autor. 

Ao darem a Midjourney e a DALL-E 3 instruções intencionalmente escolhidas para serem breves e relacionadas com filmes comerciais, personagens e cenários reconhecíveis, Marcus e Southen revelaram a incrível capacidade destes modelos para produzirem conteúdos descaradamente protegidos por direitos de autor. 

Eles usaram prompts relacionados a filmes específicos, como "Avengers: Guerra do Infinito", sem nomear diretamente as personagens. O objetivo era testar se a IA geraria imagens muito semelhantes ao material protegido por direitos de autor apenas a partir de pistas contextuais. 

Meio da viagem
É notável que a Midjourney inclua personagens protegidas por direitos de autor com base em sugestões simples como "brinquedos animados". Fonte: IEEE

Os desenhos animados também foram abrangidos - experimentaram gerar imagens das personagens de "Os Simpsons", utilizando instruções que levaram os modelos de IA a produzir imagens claramente reconhecíveis do programa. 

Por fim, Marcus e Southen testaram pedidos que não fazem qualquer alusão a material protegido por direitos de autor, mostrando a capacidade do Midjourney para recordar imagens protegidas por direitos de autor mesmo quando não são especificamente solicitadas. 

Mais do que uma exposição técnica, este projeto toca os nervos em franja das comunidades artísticas de todo o mundo. 

A arte, afinal de contas, não é equivalente a dados. É o culminar de vidas de investimento emocional, exploração pessoal e trabalho meticuloso. 

O estudo de Marcus e Southen estava prestes a tornar-se parte de um debate prolongado que se estendia aos direitos de autor, à propriedade intelectual, à monetização da IA e à utilização empresarial da IA generativa.

As empresas utilizam o trabalho gerado pela IA e os observadores não o ignoram

Um dos slogans de marketing da IA generativa para a adoção comercial é a "eficiência" ou seus derivados.

Quer as empresas utilizem a tecnologia para poupar tempo, dinheiro ou resolver problemas, há já algum tempo que sabemos que a "eficiência" da IA comporta um certo risco de deslocação das competências humanas ou de substituição de postos de trabalho.

As empresas são frequentemente encorajadas a encarar este facto como uma oportunidade. Substituir um ser humano por uma IA é muitas vezes visto como uma escolha estratégica.

No entanto, encarar este compromisso entre humanos e máquinas de forma tão linear pode revelar-se um erro grave, como os acontecimentos seguintes demonstram com toda a franqueza.

As pessoas não estão dispostas a deixar passar em branco os casos de má utilização da IA empresarial quando têm a oportunidade de os confrontar.

ID@Xbox

A Xbox, através da sua divisão de jogos independentes ID@Xbox, lançou uma cena de inverno gerada por IA. A cena provocou uma sensação de ironia, uma vez que esta divisão da Xbox se centra nos criadores independentes e no apoio e promoção do seu trabalho. 

Mais tarde, a Xbox removeu a publicação, mas não deu seguimento ao assunto. 

A Game Informer, como se pode ver acima, também publicou uma imagem de Master Chief de Halo, gerada por IA, de má qualidade.

Magic: The Gathering

O jogo de cartas de fantasia Magic: The Gathering criou uma tempestade de críticas quando publicaram uma imagem parcialmente gerada por IA do lançamento de uma nova carta. Foi especificamente o fundo que foi gerado por IA, como evidenciado pelas linhas e curvas distorcidas. 

Inicialmente, a MTG rejeitou as críticas dos observadores, que se intensificaram ao longo da semana. A situação foi agravada pelo facto de a empresa ter divulgado anteriormente uma declaração em que se opunha à utilização de IA nos seus "principais produtos".

Tratava-se de uma imagem promocional nas redes sociais, pelo que não quebrou a promessa, mas foi a negação inicial da MTG que fez disparar o sangue de muitos.

No final da semana, a MTG concedeu a derrota às hordas de observadores, dizendo-lhes que esta imagem era certamente gerada por IA. 

A declaração começava por dizer: "Bem, cometemos um erro quando dissemos que uma imagem de marketing que publicámos não foi criada com recurso a IA. Continue a ler para saber mais" e explicava como um designer provavelmente utilizou uma ferramenta de IA como o Firefly, integrado no Photoshop, ou outra ferramenta de design gráfico com IA, em vez de simplesmente gerar toda a imagem com o Midjourney ou semelhante.

Um elemento deste debate foi o facto de a MTG provavelmente só ter utilizado a IA para gerar a imagem de fundo.

Se O Adobe Firefly foi utilizado para este efeitoo que parece possível, então a Adobe está a ser otimista quanto à sua utilização ética e legal dos dados, embora isso seja discutível. 

PTalvez não seja o pior ataque entre os outros concorrentes desta semana, por falar nisso...

Wacom

Um dos maiores erros da semana foi, sem dúvida, o da Wacom, que fabrica tablets de desenho para artistas e ilustradores. 

Surpreendentemente, para uma marca que tem como objetivo ajudar os artistas a criar arte digital, a Wacom utilizou uma imagem gerada por IA para promover um cupão de desconto. 

Mais uma vez, os utilizadores identificaram as origens de IA da imagem a partir de distorções características da tecnologia, como o texto no canto inferior esquerdo da imagem. Mais tarde, os observadores encontraram o dragão na Abobe Stock Images. 

A reação foi brutal, com os utilizadores do X a humilharem a marca e a sugerirem que os utilizadores boicotassem os seus produtos. 

A Wacom pediu desculpa, mas a sua tentativa de passar a responsabilidade para terceiros não foi vista com bons olhos.

League of Legends

League of Legends foi outra marca a ser abatida pela utilização de mau gosto de arte gerada por IA. 

Embora seja talvez um exemplo mais controverso ou limítrofe, há certamente indícios de IA, como se observa em alguns componentes e partes do corpo com formas estranhas. 

Um ajuste de contas para as empresas de IA?

2024 assistiu a uma continuação dos processos judiciais, com os autores Nicholas Basbanes e Nicholas Gage apresentação de uma queixa afirmando que a OpenAI e a Microsoft utilizaram ilegalmente as suas obras escritas, a última desde que a Processo do New York Times de dezembro

A ação judicial do NYT, em particular, poderá ter consequências monumentais para o sector da IA. 

Alex Connock, membro sénior da Saïd Business School da Universidade de Oxford, sublinhou o potencial impacto, afirmando: "Se o Times ganhasse o caso, poderia ser catastrófico para toda a indústria da IA". 

O Comissário explicou as implicações, observando que "uma perda do princípio de que a negociação leal pode permitir a aprendizagem com materiais de terceiros seria um golpe para toda a indústria".

O Dr. Gary Marcus, envolvido no estudo do IEEE Midjourney, também apelidou 2024 de "ano do processo de IA", e há dúvidas sobre se este facto, combinado com a regulamentação e a potencial escassez de hardware, poderá assinalar um "inverno da IA", em que o fervor da indústria para o desenvolvimento arrefece.


Connock também especulou sobre as repercussões mais amplas deste dilúvio de acções judiciais, explicando: "Se a OpenAI perdesse o caso, abriria a oportunidade para todos os outros criadores de conteúdos que acreditam que os seus conteúdos foram rastreados (que são basicamente todos) e produziria danos à escala de todo o sector".

Connock teoriza: "O que acontecerá quase inevitavelmente é que o NY Times fará um acordo, depois de ter conseguido um melhor acordo de monetização para a utilização do seu conteúdo".

A descoberta de qualquer falha na armadura da indústria da IA seria enorme, tanto para as grandes empresas como o NYT como para os criadores independentes. 

Como afirmou James Grimmelmann, professor de direito digital e da informação em Cornell, "os detentores de direitos de autor têm feito fila para atacar a IA generativa como uma piñata gigante tecida a partir das suas obras. É provável que 2024 seja o ano em que descobriremos se há dinheiro lá dentro".

Então, quão forte é a defesa do sector? Até agora, os criadores de IA estão a agarrar-se aos seus argumentos de "utilização justa", protegendo-se do facto de os conjuntos de dados mais populares terem sido criados por outras entidades que não eles próprios, o que obscurece a sua culpabilidade.

As empresas tecnológicas são hábeis a lutar contra as responsabilidades legais que se interpõem no caminho da I&D. E não esqueçamos que a IA apresenta oportunidades para os governos que procuram "eficiência" e outros benefícios, o que atenua a sua resistência.

O governo do Reino Unido, por exemplo, chegou mesmo a explorar uma exceção aos direitos de autor para as empresas de IA, algo que voltou atrás depois de uma enorme resistência e de uma comissão parlamentar.

Em termos de estratégia, numa conversa com o LA Times, William Fitzgerald, sócio da Worker Agency e antigo membro da equipa de políticas públicas da Google, disse que a grande tecnologia iniciar uma forte campanha de lobbying, talvez inspirada nas tácticas anteriormente utilizadas por gigantes tecnológicos como a Google.

Isto implicaria uma combinação de defesa jurídica, campanhas de relações públicas e esforços de lobbying, tácticas que foram particularmente visíveis em casos de grande visibilidade no passado, como a batalha contra a lei Stop Online Piracy Act (SOPA) e o litígio da Google Books.

Fitzgerald observa que a OpenAI parece estar a seguir um caminho semelhante ao da Google, não só na sua abordagem às queixas sobre direitos de autor, mas também nas suas práticas de contratação.

Parece que a OpenAI está a reproduzir o manual de lobbying da Google. Contrataram antigos defensores da Google para afetar o mesmo manual que tem sido tão bem sucedido para a Google há décadas".

A análise de Fitzgerald implica que a indústria da IA, tal como outros sectores tecnológicos anteriores, pode contar com poderosos esforços de lobbying e manobras estratégicas de política pública para moldar o panorama jurídico a seu favor.

É impossível prever como é que isto se vai desenrolar. Mas pode ter a certeza de que as grandes empresas tecnológicas estão dispostas a lutar até ao fim. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições