OpenAI a récemment annoncé une nouvelle approche des données et de l'IA, soulignant l'importance d'un développement responsable de l'IA et de partenariats avec les créateurs et les propriétaires de contenu.
L'entreprise a déclaré vouloir construire des systèmes d'IA qui élargissent les possibilités pour tout le monde tout en respectant les choix des créateurs et des éditeurs.
"L'IA devrait élargir les possibilités pour tout le monde. En transformant l'information de manière inédite, les systèmes d'IA nous aident à résoudre des problèmes et à nous exprimer". OpenAI a déclaré dans son article de blog récent.
Dans le cadre de cette stratégie, l'entreprise développe un outil appelé Media Manager, destiné à permettre aux créateurs et aux propriétaires de contenu de préciser comment ils souhaitent que leurs œuvres soient incluses ou exclues de la recherche et de la formation en matière d'apprentissage automatique.
"Notre objectif est de mettre en place l'outil d'ici 2025, et nous espérons qu'il constituera une norme pour l'ensemble du secteur de l'IA". OpenAI a déclaré.
Peu d'informations sont disponibles sur le Media Manager et son fonctionnement. Il semble qu'il s'agira d'un outil en libre-service permettant aux créateurs d'identifier et de contrôler leurs données.
Certains spéculent sur le fait de savoir si OpenAI identifiera activement les données des créateurs à l'intérieur de leur ensemble de données grâce à l'apprentissage automatique, ce qui pourrait être énorme.
UEn fin de compte, nous ne savons pas encore comment cela fonctionnera ni quelle sera son efficacité.
OpenAI a annoncé Media Manager, une plateforme prévue pour permettre aux créateurs d'accepter ou de refuser la formation à l'IA générative.
Points positifs :
- Je me réjouis qu'ils s'engagent sur cette question
- Ils reconnaissent que les clauses de non-participation existantes ne sont pas suffisantes
- Lorsque vous vous désengagez, il semble qu'ils utiliseront le ML pour...- Ed Newton-Rex (@ednewtonrex) 7 mai 2024
Une démarche positive de la part de OpenAI? C'est possible, mais si OpenAI La Commission croit sincèrement que l'entraînement de modèles d'IA sur des données publiques est un moyen efficace d'améliorer la qualité de l'information.Si les données disponibles relèvent de l'usage loyal, il n'est pas nécessaire de prévoir une option de refus.
En outre, si OpenAI peut mettre au point des outils permettant d'identifier le matériel protégé par le droit d'auteur, elle pourrait probablement les utiliser pour filtrer ses recherches de données dès le départ, plutôt que d'exiger des créateurs de contenu qu'ils s'y opposent.
De plus, 2025 leur donne suffisamment de temps pour constituer un colossal ensemble de données fondamentales sur les œuvres protégées par le droit d'auteur sans l'autorisation des personnes concernées.
À partir de là, il s'agit avant tout d'affiner les réglages. OpenAI continuera d'acheter des données à des sources telles que le Financial Times et Le Monde pour actualiser leurs modèles.
Cela prouve au moins que des pressions s'exercent sur l'Union européenne. OpenAI et d'autres entreprises spécialisées dans l'IA à traiter les données de manière plus éthique.
Le groupe européen de défense de la vie privée Noyb a récemment contribué à la multiplication des actions en justice. a entamé une action en justice à OpenAI, affirmant que ChatGPT génère de manière répétée des informations inexactes sur les personnes et ne les corrige pas.
OpenAILa réponse de la Commission a été caractéristique : "Vous avez peut-être raison, mais nous ne pouvons pas, ou nous ne voulons pas, faire quoi que ce soit à ce sujet".