O mês de janeiro de 2024 começou com a notícia de que a Midjourney, uma das principais forças no mundo da geração de imagens por IA, utilizou os nomes e estilos de mais de 16 000 artistas sem o seu consentimento para treinar os seus modelos de geração de imagens.
Pode ver a base de dados de artistas no Anexo J de uma ação judicial apresentada contra a Midjourney, a Stability AI e a DeviantArt.
Na mesma semana dessa divulgação, o cientista cognitivo Dr. Gary Marcus e o artista concetual Reid Southen lançaram uma análise no IEEE intitulado "Generative AI Has a Visual Plagiarism Problem" (A IA geradora tem um problema de plágio visual).
Realizaram uma série de experiências com os modelos de IA Midjourney e DALL-E 3 para explorar a sua capacidade de gerar imagens que pudessem infringir material protegido por direitos de autor.
Ao darem a Midjourney e a DALL-E 3 instruções intencionalmente escolhidas para serem breves e relacionadas com filmes comerciais, personagens e cenários reconhecíveis, Marcus e Southen revelaram a incrível capacidade destes modelos para produzirem conteúdos descaradamente protegidos por direitos de autor.
Eles usaram prompts relacionados a filmes específicos, como "Avengers: Guerra do Infinito", sem nomear diretamente as personagens. O objetivo era testar se a IA geraria imagens muito semelhantes ao material protegido por direitos de autor apenas a partir de pistas contextuais.
Os desenhos animados também foram abrangidos - experimentaram gerar imagens das personagens de "Os Simpsons", utilizando instruções que levaram os modelos de IA a produzir imagens claramente reconhecíveis do programa.
Por fim, Marcus e Southen testaram pedidos que não fazem qualquer alusão a material protegido por direitos de autor, mostrando a capacidade do Midjourney para recordar imagens protegidas por direitos de autor mesmo quando não são especificamente solicitadas.
A Midjourney está a recriar IP não licenciado em massa e, por vezes, quase literalmente, mesmo a partir de prompts não específicos, ao mesmo tempo que lucra com as subscrições. Os utilizadores do MJ não têm de vender as imagens para que haja potencial violação dos direitos de autor, pois o MJ já lucra com a sua criação. pic.twitter.com/Ax3tQWq3pt
- Reid Southen (@Rahll) 7 de janeiro de 2024
Mais do que uma exposição técnica, este projeto toca os nervos em franja das comunidades artísticas de todo o mundo.
A arte, afinal de contas, não é equivalente a dados. É o culminar de vidas de investimento emocional, exploração pessoal e trabalho meticuloso.
O estudo de Marcus e Southen estava prestes a tornar-se parte de um debate prolongado que se estendia aos direitos de autor, à propriedade intelectual, à monetização da IA e à utilização empresarial da IA generativa.
As empresas utilizam o trabalho gerado pela IA e os observadores não o ignoram
Um dos slogans de marketing da IA generativa para a adoção comercial é a "eficiência" ou seus derivados.
Quer as empresas utilizem a tecnologia para poupar tempo, dinheiro ou resolver problemas, há já algum tempo que sabemos que a "eficiência" da IA comporta um certo risco de deslocação das competências humanas ou de substituição de postos de trabalho.
As empresas são frequentemente encorajadas a encarar este facto como uma oportunidade. Substituir um ser humano por uma IA é muitas vezes visto como uma escolha estratégica.
No entanto, encarar este compromisso entre humanos e máquinas de forma tão linear pode revelar-se um erro grave, como os acontecimentos seguintes demonstram com toda a franqueza.
As pessoas não estão dispostas a deixar passar em branco os casos de má utilização da IA empresarial quando têm a oportunidade de os confrontar.
ID@Xbox
A Xbox, através da sua divisão de jogos independentes ID@Xbox, lançou uma cena de inverno gerada por IA. A cena provocou uma sensação de ironia, uma vez que esta divisão da Xbox se centra nos criadores independentes e no apoio e promoção do seu trabalho.
Mais tarde, a Xbox removeu a publicação, mas não deu seguimento ao assunto.
Caso alguém esteja a contar... A Xbox e a Game Informer utilizaram ou promoveram a IA generativa há relativamente pouco tempo. https://t.co/cOvkU3WXQ8 pic.twitter.com/2d5oeVTCLN
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 7 de janeiro de 2024
A Game Informer, como se pode ver acima, também publicou uma imagem de Master Chief de Halo, gerada por IA, de má qualidade.
Magic: The Gathering
O jogo de cartas de fantasia Magic: The Gathering criou uma tempestade de críticas quando publicaram uma imagem parcialmente gerada por IA do lançamento de uma nova carta. Foi especificamente o fundo que foi gerado por IA, como evidenciado pelas linhas e curvas distorcidas.
Inicialmente, a MTG rejeitou as críticas dos observadores, que se intensificaram ao longo da semana. A situação foi agravada pelo facto de a empresa ter divulgado anteriormente uma declaração em que se opunha à utilização de IA nos seus "principais produtos".
Tratava-se de uma imagem promocional nas redes sociais, pelo que não quebrou a promessa, mas foi a negação inicial da MTG que fez disparar o sangue de muitos.
"criado por humanos" Certo... pic.twitter.com/gf9TUXWSPA
- TaylorGreen (@GreenSkyDragon) 5 de janeiro de 2024
Detesto que vivamos numa época em que temos de verificar os factos da arte. pic.twitter.com/9D6V6ZXswW
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 5 de janeiro de 2024
No final da semana, a MTG concedeu a derrota às hordas de observadores, dizendo-lhes que esta imagem era certamente gerada por IA.
A declaração começava por dizer: "Bem, cometemos um erro quando dissemos que uma imagem de marketing que publicámos não foi criada com recurso a IA. Continue a ler para saber mais" e explicava como um designer provavelmente utilizou uma ferramenta de IA como o Firefly, integrado no Photoshop, ou outra ferramenta de design gráfico com IA, em vez de simplesmente gerar toda a imagem com o Midjourney ou semelhante.
Bem, cometemos um erro quando dissemos que uma imagem de marketing que publicámos não foi criada com recurso à IA. Continue a ler para saber mais. (1/5)
- Magic: The Gathering (@wizards_magic) 7 de janeiro de 2024
Um elemento deste debate foi o facto de a MTG provavelmente só ter utilizado a IA para gerar a imagem de fundo.
Se O Adobe Firefly foi utilizado para este efeitoo que parece possível, então a Adobe está a ser otimista quanto à sua utilização ética e legal dos dados, embora isso seja discutível.
PTalvez não seja o pior ataque entre os outros concorrentes desta semana, por falar nisso...
Wacom
Um dos maiores erros da semana foi, sem dúvida, o da Wacom, que fabrica tablets de desenho para artistas e ilustradores.
Surpreendentemente, para uma marca que tem como objetivo ajudar os artistas a criar arte digital, a Wacom utilizou uma imagem gerada por IA para promover um cupão de desconto.
Mais uma vez, os utilizadores identificaram as origens de IA da imagem a partir de distorções características da tecnologia, como o texto no canto inferior esquerdo da imagem. Mais tarde, os observadores encontraram o dragão na Abobe Stock Images.
A reação foi brutal, com os utilizadores do X a humilharem a marca e a sugerirem que os utilizadores boicotassem os seus produtos.
Porque a Wacom apagou o seu post.
Postar por uma questão de preservação histórica da Internet. https://t.co/WEZex5GbG9 pic.twitter.com/chiR2pOczB- Genel Jumalon ✈️ Animate Raleigh (@GenelJumalon) 6 de janeiro de 2024
A Wacom pediu desculpa, mas a sua tentativa de passar a responsabilidade para terceiros não foi vista com bons olhos.
Uma mensagem da equipa da Wacom: pic.twitter.com/u06PNCvmhU
- Wacom (@wacom) 9 de janeiro de 2024
League of Legends
League of Legends foi outra marca a ser abatida pela utilização de mau gosto de arte gerada por IA.
Embora seja talvez um exemplo mais controverso ou limítrofe, há certamente indícios de IA, como se observa em alguns componentes e partes do corpo com formas estranhas.
Nos últimos dias, a Wizards of the Coast foi apanhada a utilizar IA em peças de campanhas publicitárias, depois de ter dito que não o faria. A Wacom também foi apanhada e eliminada, o que é uma loucura, tendo em conta os seus produtos, e parece que a Apex Legends também. Os trabalhos estão a ser feitos em tempo real, o que me dá náuseas. pic.twitter.com/EGBA1INMPZ
- Reid Southen (@Rahll) 7 de janeiro de 2024
Um ajuste de contas para as empresas de IA?
2024 assistiu a uma continuação dos processos judiciais, com os autores Nicholas Basbanes e Nicholas Gage apresentação de uma queixa afirmando que a OpenAI e a Microsoft utilizaram ilegalmente as suas obras escritas, a última desde que a Processo do New York Times de dezembro.
A ação judicial do NYT, em particular, poderá ter consequências monumentais para o sector da IA.
Alex Connock, membro sénior da Saïd Business School da Universidade de Oxford, sublinhou o potencial impacto, afirmando: "Se o Times ganhasse o caso, poderia ser catastrófico para toda a indústria da IA".
O Comissário explicou as implicações, observando que "uma perda do princípio de que a negociação leal pode permitir a aprendizagem com materiais de terceiros seria um golpe para toda a indústria".
O Dr. Gary Marcus, envolvido no estudo do IEEE Midjourney, também apelidou 2024 de "ano do processo de IA", e há dúvidas sobre se este facto, combinado com a regulamentação e a potencial escassez de hardware, poderá assinalar um "inverno da IA", em que o fervor da indústria para o desenvolvimento arrefece.
2024 é 𝙙𝙚𝙛𝙞𝙣𝙞𝙩𝙚𝙡𝙮 vai ser o ano do processo no GenAI.
Se quiser saber porquê, e porque é que o GenAI vai provavelmente perder muitos desses processos ou ser forçado a chegar a acordo, veja os últimos posts no meu (gratuito) 𝖲𝗎𝖻𝗌𝗍𝖺𝖼𝗄, Marcus on AI. https://t.co/cO4bqKkbsa
- Gary Marcus (@GaryMarcus) 8 de janeiro de 2024
Connock também especulou sobre as repercussões mais amplas deste dilúvio de acções judiciais, explicando: "Se a OpenAI perdesse o caso, abriria a oportunidade para todos os outros criadores de conteúdos que acreditam que os seus conteúdos foram rastreados (que são basicamente todos) e produziria danos à escala de todo o sector".
Connock teoriza: "O que acontecerá quase inevitavelmente é que o NY Times fará um acordo, depois de ter conseguido um melhor acordo de monetização para a utilização do seu conteúdo".
A descoberta de qualquer falha na armadura da indústria da IA seria enorme, tanto para as grandes empresas como o NYT como para os criadores independentes.
Como afirmou James Grimmelmann, professor de direito digital e da informação em Cornell, "os detentores de direitos de autor têm feito fila para atacar a IA generativa como uma piñata gigante tecida a partir das suas obras. É provável que 2024 seja o ano em que descobriremos se há dinheiro lá dentro".
Então, quão forte é a defesa do sector? Até agora, os criadores de IA estão a agarrar-se aos seus argumentos de "utilização justa", protegendo-se do facto de os conjuntos de dados mais populares terem sido criados por outras entidades que não eles próprios, o que obscurece a sua culpabilidade.
As empresas tecnológicas são hábeis a lutar contra as responsabilidades legais que se interpõem no caminho da I&D. E não esqueçamos que a IA apresenta oportunidades para os governos que procuram "eficiência" e outros benefícios, o que atenua a sua resistência.
O governo do Reino Unido, por exemplo, chegou mesmo a explorar uma exceção aos direitos de autor para as empresas de IA, algo que voltou atrás depois de uma enorme resistência e de uma comissão parlamentar.
Em termos de estratégia, numa conversa com o LA Times, William Fitzgerald, sócio da Worker Agency e antigo membro da equipa de políticas públicas da Google, disse que a grande tecnologia iniciar uma forte campanha de lobbying, talvez inspirada nas tácticas anteriormente utilizadas por gigantes tecnológicos como a Google.
Isto implicaria uma combinação de defesa jurídica, campanhas de relações públicas e esforços de lobbying, tácticas que foram particularmente visíveis em casos de grande visibilidade no passado, como a batalha contra a lei Stop Online Piracy Act (SOPA) e o litígio da Google Books.
Fitzgerald observa que a OpenAI parece estar a seguir um caminho semelhante ao da Google, não só na sua abordagem às queixas sobre direitos de autor, mas também nas suas práticas de contratação.
Parece que a OpenAI está a reproduzir o manual de lobbying da Google. Contrataram antigos defensores da Google para afetar o mesmo manual que tem sido tão bem sucedido para a Google há décadas".
A análise de Fitzgerald implica que a indústria da IA, tal como outros sectores tecnológicos anteriores, pode contar com poderosos esforços de lobbying e manobras estratégicas de política pública para moldar o panorama jurídico a seu favor.
É impossível prever como é que isto se vai desenrolar. Mas pode ter a certeza de que as grandes empresas tecnológicas estão dispostas a lutar até ao fim.