OpenAI a demandé à un juge de rejeter le procès intenté par le New York Times contre Microsoft et OpenAI, accusant le journal de "pirater" leurs produits.
Ils accusent le New York Times de fabriquer des violations de droits d'auteur par le biais d'un processus exhaustif et manipulateur impliquant des "dizaines de milliers de tentatives" et des "invites trompeuses qui violent de manière flagrante les conditions d'utilisation d'OpenAI".
Les allégations contenues dans la plainte du Times ne répondent pas aux normes journalistiques rigoureuses qui font sa renommée. La vérité, qui apparaîtra au cours de cette affaire, est que le Times a payé quelqu'un pour pirater les produits d'OpenAI".
Le New York Times est demander des dommages-intérêts importants de Microsoft et d'OpenAI.
Bien qu'il y ait un une pile de procès qui ne cesse de s'accumuler impliquant des entreprises d'IA de tous les horizons des industries créatives, cette affaire est appelée à faire date. Elle pourrait remodeler le paysage du développement de l'IA et de la législation sur le droit d'auteur.
Cependant, vous pouvez être sûr que Big Tech se battra bec et ongles. "Les gens normaux n'utilisent pas les produits d'OpenAI de cette manière", affirme OpenAI dans sa récente déclaration.
Le terme "prompt engineering" ou "red-teaming", tel que mentionné par OpenAI dans son dossier juridique, agit comme un test de résistance destiné à découvrir les vulnérabilités des systèmes d'IA.
L'alimentation des systèmes d'IA générative en messages-guides spécifiquement conçus les contraint à renoncer à leurs garde-fous et à se concentrer sur les aspects les plus importants de la vie quotidienne. se comporter de manière erratique.
Cela a donné lieu à une série de réactions étranges et potentiellement dangereuses, telles que l'offre de aider à la fabrication de bombes ou encourager le suicide et d'autres activités nuisibles.
Soumission de l'OpenAI, disponible iciIl poursuit : "OpenAI et les autres défendeurs dans ces procès finiront par l'emporter parce que personne - pas même le New York Times - ne peut monopoliser les faits ou les règles de la langue".
Elle précise également que "contrairement aux allégations de la plainte, ChatGPT n'est en aucun cas un substitut à un abonnement au New York Times. Dans le monde réel, les gens n'utilisent pas ChatGPT ou tout autre produit d'OpenAI à cette fin. Ils ne le pourraient pas non plus".
Cette étape est cruciale, car le NYT doit convaincre le juge des dommages financiers résultant de l'infraction commise par OpenAI.
Droit d'auteur : utilisation équitable ou échappatoire ?
C'est un secret de polichinelle que les modèles génératifs d'IA sont facilement entraînés sur des données de droits d'auteur, certains plus que d'autres.
OpenAI l'a admis dans un soumission préalable à la Chambre des Lords du Royaume-UniLe droit d'auteur couvrant aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur".
L'OpenAI a poursuivi dans ce que certains ont considéré comme un lapsus freudien : "Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui".
Il ne fait aucun doute que les entreprises d'IA ont l'intention d'utiliser des données protégées par le droit d'auteur. Mais cela ne signifie pas que la loi sur le droit d'auteur, une construction antérieure à l'IA, n'est pas de leur côté.
Lors d'une discussion à Davos, en Suisse, le PDG d'OpenAI, Sam Altman, a exprimé son étonnement face au procès intenté par le NYT, clarifiant ainsi une idée fausse répandue sur la nécessité de disposer des données du journal pour l'entraînement des modèles d'OpenAI.
"En fait, nous n'avons pas besoin de nous entraîner sur leurs données", a déclaré M. Altman, soulignant l'impact négligeable de l'exclusion des données d'un seul éditeur sur les performances de ChatGPT.
Néanmoins, l'OpenAI reconnaît l'effet cumulatif potentiel du retrait du contenu de plusieurs éditeurs et conclut des accords pour utiliser le contenu des médias à des fins d'entraînement à l'IA.
A étude récente de l'Institut Reuters pour l'étude du journalisme de l'Université d'Oxford a révélé que quelque 48% des principaux sites d'information bloquent désormais les robots d'OpenAI, ce qui pourrait limiter considérablement l'accès de l'entreprise à des données fraîches et de haute qualité.
OpenAI et d'autres entreprises technologiques devront probablement commencer à payer pour les données, mais ne seront pas pénalisées pour les exploits qu'elles ont réalisés jusqu'à présent.