A OpenAI apresenta planos para uma utilização responsável dos dados de IA e parcerias com criadores 

8 de maio de 2024

  • A OpenAI debateu a possibilidade de alterar as suas estratégias de recolha de dados a favor dos criadores
  • Isto inclui uma plataforma "Media Manager" para os criadores interagirem com os seus dados
  • Previsto para 2025, há quem defenda que se trata de um caso de demasiado pouco, demasiado tarde
Arte OpenAI

OpenAI anunciou recentemente uma nova abordagem aos dados e à IA, salientando a importância do desenvolvimento responsável da IA e das parcerias com criadores e proprietários de conteúdos. 

A empresa declarou que pretende criar sistemas de IA que alarguem as oportunidades para todos, respeitando as escolhas dos criadores e editores.

"A IA deve alargar as oportunidades para todos. Ao transformar a informação de novas formas, os sistemas de IA ajudam-nos a resolver problemas e a exprimirmo-nos" OpenAI declarou no seu publicação recente no blogue

Como parte desta estratégia, a empresa está a desenvolver uma ferramenta denominada Media Manager, destinada a permitir que os criadores e os proprietários de conteúdos especifiquem a forma como pretendem que as suas obras sejam incluídas ou excluídas da investigação e formação em aprendizagem automática. 

"O nosso objetivo é ter a ferramenta implementada até 2025 e esperamos que estabeleça um padrão em toda a indústria da IA". OpenAI declarou.

Há pouca informação disponível sobre o Media Manager e sobre o seu funcionamento. Parece que assumirá a forma de uma ferramenta de autosserviço onde os criadores podem identificar e controlar os seus dados.

Alguns especulam se OpenAI identificará ativamente os dados dos criadores dentro do seu conjunto de dados utilizando a aprendizagem automática - o que poderá ser enorme.

UEm última análise, ainda não sabemos como vai funcionar nem quão eficaz será. 

Um passo positivo da OpenAI? Possivelmente, mas se OpenAI acredita genuinamente que o treino de modelos de IA em dados públicosse os dados disponíveis forem abrangidos pela utilização leal, não haverá necessidade de uma opção de auto-exclusão. 

Além disso, se OpenAI possa desenvolver ferramentas para identificar material protegido por direitos de autor, poderia provavelmente utilizá-las para filtrar a sua recolha de dados desde o início, em vez de exigir que os criadores de conteúdos optem por não o fazer.

Além disso, 2025 dá-lhes tempo suficiente para construírem um colossal conjunto de dados de base sobre os trabalhos protegidos por direitos de autor das pessoas sem a sua autorização. 

A partir daí, é sobretudo uma questão de afinação. OpenAI continuará a adquirir dados de fontes como o Financial Times e Le Monde para manterem os seus modelos actualizados. 

Isto serve, pelo menos, como prova de que há pressão sobre OpenAI e outras empresas de IA para tratarem os dados de forma mais ética. 

Contribuindo para uma mesa cheia de acções judiciais, o grupo europeu de defesa da privacidade Noyb instaurou uma ação judicial em OpenAI, alegando que ChatGPT gera repetidamente informações inexactas sobre as pessoas e não as corrige. 

OpenAIA resposta da Comissão Europeia foi caraterística: "É possível que tenha razão, mas não podemos, ou não queremos, fazer nada a esse respeito".

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições