Os editores de notícias debateram a possibilidade de se unirem contra a utilização não autorizada dos seus conteúdos noticiosos para fins de IA em junho.
Estão cada vez mais perto de finalizar um acordo, com potenciais acções judiciais a seguir se as empresas de IA não se curvarem à sua vontade.
Os participantes incluem executivos influentes e especialistas jurídicos de organizações de primeira linha, como The New York Times, Vox Media, News Corp, Condé Nast e IAC.
Barry Diller, o bilionário fundador do grupo de notícias IAC, abordou publicamente a utilização não autorizada de dados noticiosos para treinar grandes modelos linguísticos (LLM), argumentando que a tecnologia pode reduzir as interacções dos consumidores com os sítios noticiosos, conduzindo a uma diminuição das receitas.
Do mesmo modo, o diretor executivo da IAC, Joey Levin disse"O que toda a gente quer falar é se a IA vai dominar o mundo para eliminar os humanos e todas essas coisas", e avisou que a aquisição dos meios de comunicação pela IA "pode ser mais profunda do que esse tipo de medo da ficção científica".
As empresas jornalísticas receiam que os modelos de IA anulem o tráfego direto para os seus sítios Web, o que resultará numa perda de receitas, enquanto os bots recolhem dados e os condensam num formato que não pode ser atribuído à fonte.
Como Levin descreveu, "estes grandes modelos linguísticos, ou IA generativa, foram concebidos para roubar o melhor da Internet".
Os editores pretendem unir-se contra os criadores de IA e garantir pagamentos justos
Diller encorajou os editores de notícias a unirem-se contra os criadores de IA, um apelo à ação digno de nota no meio do cenário ferozmente competitivo da indústria editorial.
Em vez de fazer acordos individuais com empresas de tecnologia, como a Acordo de 100 milhões de libras por ano entre o New York Times e a Google, as empresas de comunicação social estão a encarar a resistência como uma estratégia mais sólida a longo prazo. A Associated Press (AP) recentemente fechou um acordo com a OpenAI para aceder ao seu arquivo para formação em IA.
Os editores acreditam que os valores devem ser muito mais significativos do que os acordos anteriores, argumentando que devem receber uma parte proporcional do valor criado pelos LLMs, provavelmente no valor de milhares de milhões de dólares.
Diller e outros executivos também ameaçaram recorrer a acções judiciais e os processos contra os criadores de IA, como a OpenAI e a Meta, já estão a acumular-se.
O aproveitamento, de certa forma duvidoso, de conteúdos da Internet "publicamente disponíveis" por parte da indústria da IA tem causado controvérsias e acções judiciais relacionadas, incluindo casos recentes apresentada por vários autores contra a Meta e/ou a OpenAI.
Os autores aumentaram ainda mais a aposta ao cossignatário de uma carta aberta que defende a utilização justa do seu trabalho. A carta recebeu 8.000 assinaturas e é apoiada pela Author's Guild, que também ameaça com acções judiciais se as empresas de IA continuarem alegadamente a extrair trabalho protegido por direitos de autor de "bibliotecas sombra" ilícitas.
As bibliotecas-sombra são repositórios de ficheiros que contêm obras de ficção e de não-ficção copiadas ilegalmente, semelhantes aos sítios Web de torrents.
Os resultados destes casos podem reger a forma como as empresas de IA constroem os seus conjuntos de dados, e os dias em que se pode explorar livremente fontes "públicas" duvidosas podem estar a chegar ao fim.