OpenAI a répondu publiquement à l'action en justice pour violation du droit d'auteur intentée par le New York Times en décembre.
La déclaration n'est pas susceptible d'entraîner le retrait de l'autorisation d'exportation de l'Union européenne. le procès mais elle donne un aperçu des arguments que les avocats de l'entreprise pourraient suivre.
Voici une version TLDR des quatre points principaux de la déclaration :
1. OpenAI déclare vouloir "soutenir un écosystème de l'information sain, être un bon partenaire et créer des opportunités mutuellement bénéfiques". Elle affirme que ses produits peuvent aider les journalistes et les rédacteurs en chef à mieux faire leur travail et à atteindre le public visé par de nouveaux moyens.
En retour, elle aimerait utiliser leurs données pour entraîner ses modèles. OpenAI a cité plusieurs entreprises de médias, comme Axel Springer, avec lesquelles elle a noué des relations mutuellement bénéfiques.
2. L'OpenAI continue de penser que l'entraînement de modèles d'IA à partir de données accessibles au public est un moyen efficace d'améliorer la qualité de la vie. utilisation équitable et a dressé la liste des pays et des organisations qui sont d'accord.
OpenAI propose désormais un moyen de refuser de bloquer les robots racleurs, mais ne mentionne pas d'option permettant de supprimer les données d'entraînement historiques avant la fonction de refus.
3. La régurgitation de fragments de contenus protégés par des droits d'auteur est un "bogue rare" et OpenAI s'efforce d'y remédier. Si le contenu du Times est syndiqué et publié sur plusieurs plateformes, il sera forcément reproduit par ChatGPT si les utilisateurs essaient vraiment de le faire.
OpenAI dit attendre des utilisateurs qu'ils "agissent de manière responsable" et qu'ils ne fassent pas cela. Le contenu du New York Times ne représente qu'une infime partie des données d'entraînement de ChatGPT, de sorte qu'OpenAI affirme qu'il ne fait pas vraiment bouger l'aiguille en ce qui concerne les données d'entraînement.
4. OpenAI affirme que le New York Times ne raconte pas toute l'histoire. OpenAI pensait que ses discussions progressaient de manière positive jusqu'à ce qu'elle prenne connaissance de l'action en justice en lisant le Times.
Les exemples de contenu régurgité provenaient de vieux articles diffusés sur Internet. OpenAI affirme que les exemples de contenu textuel ont été induits et soupçonne "qu'ils ont soit donné l'ordre au modèle de régurgiter, soit choisi leurs exemples parmi de nombreuses tentatives".
La déclaration, que vous pouvez Lire l'intégralité iciLe rapport se termine par l'espoir d'OpenAI d'arranger les choses avec le papier. L'alternative ne semble bonne pour aucune des deux parties.