OpenAI anunciou recentemente uma nova abordagem aos dados e à IA, salientando a importância do desenvolvimento responsável da IA e das parcerias com criadores e proprietários de conteúdos.
A empresa declarou que pretende criar sistemas de IA que alarguem as oportunidades para todos, respeitando as escolhas dos criadores e editores.
"A IA deve alargar as oportunidades para todos. Ao transformar a informação de novas formas, os sistemas de IA ajudam-nos a resolver problemas e a exprimirmo-nos" OpenAI declarou no seu publicação recente no blogue.
Como parte desta estratégia, a empresa está a desenvolver uma ferramenta denominada Media Manager, destinada a permitir que os criadores e os proprietários de conteúdos especifiquem a forma como pretendem que as suas obras sejam incluídas ou excluídas da investigação e formação em aprendizagem automática.
"O nosso objetivo é ter a ferramenta implementada até 2025 e esperamos que estabeleça um padrão em toda a indústria da IA". OpenAI declarou.
Há pouca informação disponível sobre o Media Manager e sobre o seu funcionamento. Parece que assumirá a forma de uma ferramenta de autosserviço onde os criadores podem identificar e controlar os seus dados.
Alguns especulam se OpenAI identificará ativamente os dados dos criadores dentro do seu conjunto de dados utilizando a aprendizagem automática - o que poderá ser enorme.
UEm última análise, ainda não sabemos como vai funcionar nem quão eficaz será.
OpenAI anunciou o Media Manager, uma plataforma planeada para permitir que os criadores optem por participar ou não na formação de IA generativa.
Pontos positivos:
- Congratulo-me com o facto de estarem a abordar esta questão
- Reconhecem que os opt-outs existentes não são suficientemente bons
- Quando se opta por não participar, parece que vão utilizar o ML para...- Ed Newton-Rex (@ednewtonrex) 7 de maio de 2024
Um passo positivo da OpenAI? Possivelmente, mas se OpenAI acredita genuinamente que o treino de modelos de IA em dados públicosse os dados disponíveis forem abrangidos pela utilização leal, não haverá necessidade de uma opção de auto-exclusão.
Além disso, se OpenAI possa desenvolver ferramentas para identificar material protegido por direitos de autor, poderia provavelmente utilizá-las para filtrar a sua recolha de dados desde o início, em vez de exigir que os criadores de conteúdos optem por não o fazer.
Além disso, 2025 dá-lhes tempo suficiente para construírem um colossal conjunto de dados de base sobre os trabalhos protegidos por direitos de autor das pessoas sem a sua autorização.
A partir daí, é sobretudo uma questão de afinação. OpenAI continuará a adquirir dados de fontes como o Financial Times e Le Monde para manterem os seus modelos actualizados.
Isto serve, pelo menos, como prova de que há pressão sobre OpenAI e outras empresas de IA para tratarem os dados de forma mais ética.
Contribuindo para uma mesa cheia de acções judiciais, o grupo europeu de defesa da privacidade Noyb instaurou uma ação judicial em OpenAI, alegando que ChatGPT gera repetidamente informações inexactas sobre as pessoas e não as corrige.
OpenAIA resposta da Comissão Europeia foi caraterística: "É possível que tenha razão, mas não podemos, ou não queremos, fazer nada a esse respeito".