Microsoft doit payer des frais de justice pour une éventuelle violation des droits d'auteur de Copilot

8 septembre 2023

IA Microsoft

Microsoft s'est engagé à assumer la charge juridique de toute violation des droits d'auteur résultant de contenus générés par l'IA à l'aide de ses outils, y compris Copilot.

Copilot est un outil d'IA qui s'intègre directement dans la famille de logiciels Microsoft 365, qui comprend Word, PowerPoint et Excel.

Il n'est pas encore accessible au public, mais il permettra aux utilisateurs de créer et de résumer automatiquement des textes, de créer des présentations, des graphiques, d'analyser des données, etc.

Selon Hossein Nowbar, directeur des affaires juridiques de Microsoft, la société assumera tous les risques juridiques potentiels liés à l'utilisation de ses produits d'intelligence artificielle par ses clients commerciaux, à condition qu'ils respectent les "garde-fous et les filtres de contenu" intégrés.

En d'autres termes, si Copilot produit un contenu qui enfreint les droits d'auteur de quelqu'un d'autre et que ce dernier intente un procès, Microsoft paiera.

L'annonce a été faite en détail par le biais d'un billet officiel du blog de MicrosoftEn particulier, si un tiers poursuit un client commercial pour violation des droits d'auteur en raison de l'utilisation des copilotes de Microsoft ou des résultats qu'ils génèrent, nous défendrons le client et paierons le montant de tout jugement ou règlement défavorable résultant du procès, à condition que le client ait utilisé les garde-fous et les filtres de contenu que nous avons intégrés dans nos produits.

Microsoft cherche à apaiser les craintes concernant le potentiel de l'IA générative à produire involontairement du matériel protégé par le droit d'auteur.

Ilanah Fhima, professeur de droit de la propriété intellectuelle à l'University College London, note que "cette décision ouvre le marché" et "rend ces logiciels plus utilisables, car elle supprime l'un des obstacles auxquels se heurtent les entreprises si elles savent qu'elles ont cette assurance".

Il s'agit là d'un geste inattendu de la part de Microsoft : s'engager à ramasser les morceaux des batailles juridiques des clients est quelque chose qui n'a de sens qu'à l'ère de l'IA. 

En outre, la stipulation selon laquelle les clients doivent utiliser les "garde-fous et filtres de contenu" des produits fournit à Microsoft une couche supplémentaire de protection contre les abus.

Préoccupations éthiques et réactions négatives antérieures

La démarche de Microsoft soulève des questions quant à l'intention de l'entreprise de renforcer la confiance du public dans ses produits ou simplement d'en favoriser l'adoption. 

Payer les frais de justice est une chose, mais cela ne règle pas la question de savoir si les données d'entraînement d'OpenAI comprennent des contenus protégés par le droit d'auteur.

Plus tôt dans l'année, Abobe Firefly a écarté les problèmes potentiels de droits d'auteur en déclarant que le modèle était formé uniquement sur des photos Adobe Stock et non sur des données extraites de l'internet.

L'entreprise a pris un engagement identiqueLa Commission s'est engagée à payer des frais juridiques pour tout problème juridique potentiel découlant des résultats de Firefly, mais il s'agit d'un engagement relativement facile à prendre, étant donné qu'elle possède les données d'entraînement.

Microsoft ne peut pas offrir le même niveau de transparence bien qu'elle offre les mêmes garanties juridiques.

La vérité est qu'il ne serait pas possible de divulguer la nature des données d'entraînement de Copilot, car il est construit avec les modèles GPT d'OpenAI, qui ont très certainement été entraînés sur au moins une partie du matériel protégé par le droit d'auteur obtenu par des pratiques douteuses.

Cela ne veut pas dire qu'OpenAI a validé les droits d'auteur des créateurs, mais quelqu'un l'a fait, et OpenAI l'aurait su.

Le billet de blog de Microsoft indique que l'entreprise accorde de l'importance au droit d'auteur et à la propriété : "Il est essentiel que les auteurs conservent le contrôle de leurs droits en vertu de la loi sur le droit d'auteur et obtiennent un bon retour sur leurs créations... et nous devrions veiller à ce que le contenu nécessaire pour former et ancrer les modèles d'IA ne soit pas enfermé dans les mains d'une ou de quelques entreprises d'une manière qui étoufferait la concurrence et l'innovation".

Bien que Copilot soit basé sur ChatGPT, leur article de blog nous laisse penser qu'ils ont l'a équipé de filtres qui protègent strictement les sorties contre la violation des droits d'auteur.

D'après la formulation de Microsoft, ces garde-fous spécifiques pourraient être propres à Copilot et à consistent en "classificateurs, métaprompts, filtrage de contenu, surveillance opérationnelle et détection des abus, y compris ceux qui sont susceptibles d'enfreindre le contenu de tiers".

Microsoft indique également que les filtres "réduisent la probabilité que les copilotes renvoient des contenus illicites".

La formulation "réduire la probabilité" implique qu'il y a toujours un *risque* que les outils enfreignent les droits d'auteur malgré les filtres.

A Une série de poursuites judiciaires allèguent que les outils d'IA produisent un contenu qui ressemble trop à du matériel protégé par le droit d'auteur, y compris certaines sections textuelles de livres ou des résumés qui ne sont pas explicables si ChatGPT n'a pas eu un accès illimité aux livres eux-mêmes.

L'OpenAI a récemment rejeté ces affaires en les qualifiant desans fondementLes procédures judiciaires sont toujours en cours.

Manque de clarté

À l'heure actuelle, on ne sait pas exactement où s'arrêtent les modèles GPT d'OpenAI, où commence Copilot et quelle est l'étendue des ajustements de Microsoft.

En autre posteSelon Microsoft, "Copilot ne se contente pas de connecter ChatGPT à Microsoft 365 ; il combine la puissance des grands modèles de langage (LLM) avec vos données dans le Microsoft Graph (y compris votre calendrier, vos e-mails, vos chats, vos documents, vos réunions et plus encore) et les applications Microsoft 365 pour transformer vos mots en l'outil de productivité le plus puissant de la planète".

Microsoft a publié une vidéo expliquant le fonctionnement de Copilot lors de sa sortie, mais sans entrer dans les détails.

Pour l'instant, nous pouvons supposer que les nouveaux filtres de contenu et garde-fous de Microsoft filtrent agressivement le matériel potentiellement protégé par le droit d'auteur, peut-être dans une plus grande mesure que ChatGPT. Microsoft a peut-être assaini Copilot pour neutraliser son utilisation de matériel potentiellement protégé par le droit d'auteur.

Des implications plus larges pour l'industrie

La décision audacieuse de Microsoft d'assumer les risques juridiques liés à la violation des droits d'auteur représente bien plus qu'une simple décision d'entreprise.

Comme les entreprises le savent bien, nous sommes à l'ère du Far West en matière de réglementation de l'IA. Cette situation pourrait être qualifiée de Il s'agit d'un risque calculé, mais cela implique également qu'il s'agit d'un pari.

Étant donné que les lois et les précédents sur l'IA et les droits d'auteur sont encore en cours d'élaboration, l'entreprise n'est peut-être pas encore confrontée à des frais juridiques exorbitants. 

Dynamique juridique mondiale

Lorsqu'Abobe a fait la même promesse, le conseiller général de la société, Dana Rao, a déclaré : "La loi n'est pas réglée et je ne peux pas vous dire dans quel sens iront les affaires de droits d'auteur, mais je peux vous garantir, étant né aux États-Unis d'Amérique, qu'il y aura beaucoup de procès, de sorte que cette assurance est très attrayante [pour nos entreprises clientes], et n'est pas vraiment un gadget".

C'est bien beau de discuter des droits d'auteur sur l'IA dans le cadre juridique américain, mais en tant qu'entreprise multinationale, la politique de Microsoft pourrait créer un précédent qu'il faudra gérer dans plusieurs juridictions, chacune ayant ses propres lois sur les droits d'auteur et ses propres attitudes à l'égard de l'IA.

Cela pourrait contraindre Microsoft à jouer un rôle qu'elle ne souhaite peut-être pas : celui d'un arbitre mondial établissant la norme de facto pour la manière dont les questions de droits d'auteur en matière d'IA sont traitées dans le monde entier.

Supposons que Copilot produise un texte douteux qui ressemble à l'œuvre d'une personne protégée par le droit d'auteur - l'interprétation de la question de savoir si le résultat viole globalement la loi sur le droit d'auteur peut varier d'une juridiction à l'autre.

Par exemple, la législation britannique sur le droit d'auteur diffère à plusieurs égards de celle des États-Unis. Alors que la loi américaine sur le droit d'auteur se concentre sur le "fair use", qui est une norme assez souple, le Royaume-Uni s'appuie sur un concept appelé "fair dealing", qui est plus limité et doit correspondre à des catégories prescrites telles que la recherche, l'examen et les reportages.

Aux États-Unis, une entité peut revendiquer une "utilisation transformatrice", en faisant valoir qu'une nouvelle création apporte quelque chose de nouveau ou modifie substantiellement l'œuvre originale d'une manière qui pourrait l'exempter de la violation du droit d'auteur.

Au Royaume-Uni, cependant, l'absence d'une clause d'"utilisation transformative" complique la gestion des questions de droits d'auteur pour les contenus générés par l'IA, ce qui pourrait accroître le risque juridique pour Microsoft lorsqu'elle propose ses produits d'IA à des clients basés au Royaume-Uni.

En outre, l'approche britannique des droits moraux - qui protègent la relation personnelle entre un auteur et son œuvre - est plus solide que celle des États-Unis.

Si une IA devait reproduire de manière substantielle une œuvre protégée par le droit d'auteur, la protection renforcée des droits moraux au Royaume-Uni pourrait ajouter une nouvelle couche de complexité au calcul juridique de Microsoft.

La politique de Microsoft pourrait donc avoir des implications considérables en établissant une norme mondiale de facto.

Cette norme devrait être suffisamment souple pour tenir compte des différences entre les cadres mondiaux, tout en étant suffisamment rigoureuse pour offrir une protection et des garanties significatives à ses clients.

On peut supposer que l'engagement sera soumis à un certain niveau d'évaluation juridique, ce qui pourrait clarifier la manière dont il est appliqué aux clients internationaux si, en effet, il a un quelconque effet en dehors des États-Unis.

Abaisser les barrières pour les clients, les élever pour les concurrents

À l'instar d'Abobe, Microsoft réduit les obstacles juridiques à l'adoption de l'IA dans les entreprises en s'engageant à soutenir ses clients sur le plan juridique.

Toutefois, cette décision risque d'avoir des répercussions sur l'écosystème des jeunes entreprises. Ces dernières, qui sont souvent à l'origine de l'innovation mais n'ont pas les moyens financiers d'assumer de lourdes responsabilités, pourraient avoir de plus en plus de mal à être compétitives sur un marché où les poids lourds proposent une "assurance juridique" dans le cadre de leur offre.

On craint déjà que les prochaines réglementations sur l'IA soient extrêmement coûteuses pour les petits acteurs de l'industrie.

Cela pourrait modifier le paysage du développement de l'IA, en consolidant le pouvoir entre les mains de ceux qui peuvent se permettre de prendre des risques juridiques.

Est-ce à cela que nous voulons que l'industrie de l'IA ressemble ? Un secteur où les entreprises commercialisent leurs produits en s'engageant à payer des frais de justice ?

D'un point de vue éthique, cette démarche s'inscrit dans des eaux troubles. Bien que Microsoft affirme accorder de l'importance aux droits d'auteur et cherche même à les protéger par le biais de ces garde-fous, elle opère dans un espace où la "bonne" voie est encore débattue.

En outre, en assumant la charge juridique, Microsoft pourrait être perçue comme contournant la nécessité de considérations éthiques plus strictes dans le développement et l'utilisation de l'IA.

Au lieu d'investir dans une technologie qui respecte intrinsèquement les droits de propriété intellectuelle, l'entreprise choisit de "nettoyer" tout désordre potentiel par la suite.

On pourrait y voir une forme de troc éthique, Microsoft échangeant la promesse d'un soutien juridique contre une adoption accrue de ses services, éventuellement au détriment de la promotion de pratiques d'IA plus éthiques.

D'autres entreprises suivront-elles le mouvement ? Probablement.

Encore une fois, ce scénario n'a de sens qu'à l'ère de l'IA.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation