Microsoft pagará honorarios legales por posible infracción de derechos de autor de Copilot

8 de septiembre de 2023

IA Microsoft

Microsoft se ha comprometido a asumir la carga legal de cualquier infracción de derechos de autor que surja de contenidos generados por IA a través de sus herramientas, incluido Copilot.

Copilot es una herramienta de IA que se integra directamente en la familia de software Microsoft 365, que incluye Word, PowerPoint y Excel.

Aún no está disponible para el público, pero permitirá a los usuarios crear y resumir automáticamente textos, crear presentaciones, elaborar gráficos, analizar datos y mucho más.

Según Hossein Nowbar, consejero general de asuntos jurídicos corporativos de Microsoft, esta empresa asumirá todos los posibles riesgos legales de los clientes comerciales que utilicen sus productos de IA, siempre que se atengan a los "guardarraíles y filtros de contenido" incorporados.

En otras palabras, si Copilot produce contenidos que infringen los derechos de autor de otra persona y ésta interpone una demanda, Microsoft pagará.

El anuncio se hizo en detalle a través de un entrada en el blog oficial de MicrosoftEn concreto, si un tercero demanda a un cliente comercial por infracción de los derechos de autor por utilizar los Copilots de Microsoft o los resultados que generan, defenderemos al cliente y pagaremos el importe de cualquier sentencia o acuerdo adverso que resulte de la demanda, siempre que el cliente haya utilizado las barreras de protección y los filtros de contenido que hemos incorporado a nuestros productos."

Microsoft pretende aliviar los temores sobre el potencial de la IA generativa para producir involuntariamente material protegido por derechos de autor.

Ilanah Fhima, catedrática de Derecho de Propiedad Intelectual del University College de Londres, señala: "Esta medida abre el mercado" y "hace que ese software sea más utilizable, ya que elimina uno de los obstáculos para las empresas si saben que tienen esa garantía".

Se trata de un movimiento inesperado por parte de Microsoft, que se compromete a recoger los pedazos de las batallas legales de sus clientes, algo que solo tiene sentido en la era de la IA. 

Además, la estipulación de que los clientes deben utilizar las "barandillas y filtros de contenido" de los productos proporciona a Microsoft una capa adicional de protección contra el uso indebido.

Preocupaciones éticas y reacciones anteriores

La jugada de Microsoft plantea interrogantes sobre si la empresa pretende fomentar la confianza pública en sus productos o simplemente impulsar su adopción. 

Pagar las tasas legales es una cosa, pero no aborda si los datos de entrenamiento de OpenAI incluyen contenidos protegidos por derechos de autor.

A principios de año, Abobe Firefly se escabulló de posibles problemas de derechos de autor afirmando que el modelo se había entrenado únicamente con fotos de Adobe Stock y no con datos extraídos de Internet.

La empresa hizo un compromiso idénticot pagar los honorarios de los abogados por cualquier posible problema legal derivado de los resultados de Firefly, pero es un compromiso relativamente fácil para ellos, ya que son los propietarios de los datos de entrenamiento.

Microsoft no puede ofrecer el mismo nivel de transparencia a pesar de ofrecer las mismas garantías jurídicas.

La verdad es que no sería posible revelar la naturaleza de los datos de entrenamiento de Copilot, ya que está construido con los modelos GPT de OpenAI, que casi con toda seguridad se entrenaron con al menos parte de material protegido por derechos de autor obtenido mediante prácticas cuestionables.

Eso no quiere decir que OpenAI validara los derechos de autor de los creadores, pero alguien lo hizo, y OpenAI lo habría sabido.

La entrada del blog de Microsoft expresa que la empresa valora los derechos de autor y la propiedad, afirmando: "Es fundamental que los autores conserven el control de sus derechos en virtud de la ley de derechos de autor y obtengan una rentabilidad saludable por sus creaciones... y debemos asegurarnos de que el contenido necesario para entrenar y fundamentar los modelos de IA no quede bloqueado en manos de una o unas pocas empresas de forma que se ahogue la competencia y la innovación."

Aunque Copilot se basa en ChatGPT, la entrada de su blog nos lleva a creer que han lo equipó con filtros que protegen estrictamente las salidas de la violación de los derechos de autor.

De acuerdo con la redacción de Microsoft, estos guardarraíles específicos podrían ser exclusivos de Copilot y consisten en "clasificadores, metapromptos, filtrado de contenidos y supervisión operativa y detección de abusos, incluidos los que potencialmente infringen contenidos de terceros".

En particular, Microsoft también afirma que los filtros "reducen la probabilidad de que los Copilots devuelvan contenidos infractores".

La expresión "reducir la probabilidad" implica que sigue existiendo una *posibilidad* de que las herramientas infrinjan los derechos de autor a pesar de los filtros.

A serie de demandas alegan que las herramientas de IA producen contenidos que se parecen demasiado al material protegido por derechos de autor, incluidas algunas secciones literales de libros o resúmenes que no se explicarían si ChatGPT no tuviera acceso ilimitado a los propios libros.

OpenAI desestimó recientemente estos casos por considerarlos 'sin fundamentoaunque los procedimientos judiciales siguen su curso.

Falta de claridad

Actualmente, no está claro dónde acaban los modelos GPT de OpenAI, dónde empieza Copilot y el alcance de los ajustes de Microsoft.

En otro puestoEn palabras de Microsoft, "Copilot no se limita a conectar ChatGPT con Microsoft 365; combina la potencia de grandes modelos lingüísticos (LLM) con tus datos en Microsoft Graph (incluidos tu calendario, correos electrónicos, chats, documentos, reuniones, etc.) y las aplicaciones de Microsoft 365 para convertir tus palabras en la herramienta de productividad más potente del planeta."

Microsoft ha publicado un vídeo en el que explica cómo funcionará Copilot cuando salga al mercado, pero no entra en detalles.

Por ahora, podemos suponer que los nuevos filtros de contenido y barandillas de seguridad de Microsoft filtran agresivamente el material potencialmente protegido por derechos de autor, quizás en mayor medida que ChatGPT. Microsoft podría haber desinfectado Copilot para neutralizar su uso de material potencialmente protegido por derechos de autor.

Implicaciones más amplias para la industria

La audaz decisión de Microsoft de asumir los riesgos legales de la infracción de los derechos de autor significa algo más que una simple decisión empresarial.

Como bien saben las empresas, estamos en la era del Salvaje Oeste de la regulación de la IA. Esto podría etiquetarse como una riesgo calculado, pero eso también implica que es una apuesta.

Dado que la legislación y los precedentes en materia de IA y derechos de autor aún están en fase de formación, es posible que la empresa no tenga que hacer frente a unos honorarios legales desorbitados... todavía. 

Dinámica jurídica mundial

Cuando Abobe hizo la misma promesa, el consejero general de la empresa, Dana Rao, dijo: "La ley no está resuelta, y no puedo decirte por dónde van a ir los casos de derechos de autor, pero puedo garantizarte, habiendo nacido en los Estados Unidos de América, que va a haber un montón de demandas, por lo que ese seguro es bastante atractivo [para nuestros clientes empresariales], y no es realmente un truco."

Está muy bien hablar de los derechos de autor de la IA en el marco jurídico estadounidense, pero como empresa multinacional, la política de Microsoft podría sentar un precedente en múltiples jurisdicciones, cada una con sus propias leyes de derechos de autor y actitudes hacia la IA.

Esto podría obligar a Microsoft a asumir un papel que tal vez no desee: el de árbitro mundial que establece la norma de facto sobre cómo se gestionan en todo el mundo las cuestiones relacionadas con los derechos de autor de la IA.

Supongamos que Copilot produce un texto cuestionable que se asemeja a la obra protegida por derechos de autor de alguien - Las interpretaciones sobre si la producción viola de forma integral la ley de derechos de autor podrían variar de una jurisdicción a otra.

Por ejemplo, la legislación británica sobre derechos de autor difiere en varios aspectos de la estadounidense. Mientras que la ley de derechos de autor de EE.UU. se centra en el "uso justo", que es una norma algo flexible, el Reino Unido se basa en un concepto llamado "trato justo", que es más limitado y tiene que encajar en categorías prescritas como la investigación, la revisión y la información periodística.

En EE.UU., una entidad puede alegar un "uso transformativo", argumentando que una nueva creación añade algo nuevo o modifica sustancialmente la obra original de forma que podría eximirla de la infracción de los derechos de autor.

En el Reino Unido, sin embargo, la falta de una cláusula de "uso transformativo" hace más difícil resolver los problemas de derechos de autor de los contenidos generados por IA, lo que puede aumentar el riesgo legal de Microsoft al ofrecer sus productos de IA a clientes con sede en el Reino Unido.

Además, el enfoque británico de los derechos morales -que protegen la relación personal entre un autor y su obra- es más sólido que en Estados Unidos.

Si una IA reprodujera sustancialmente una obra protegida por derechos de autor, la mayor protección de los derechos morales en el Reino Unido podría añadir otra capa de complejidad al cálculo jurídico de Microsoft.

Por lo tanto, la política de Microsoft podría tener implicaciones de gran alcance al establecer una norma mundial de facto.

Esta norma tendría que ser lo suficientemente flexible como para tener en cuenta las diferencias entre los marcos mundiales, pero lo suficientemente enérgica como para ofrecer una protección y unas garantías significativas a sus clientes.

Es de suponer que el compromiso se someterá a algún tipo de revisión legal, lo que podría aclarar cómo se aplica a los clientes de todo el mundo si, de hecho, tiene algún efecto fuera de Estados Unidos.

Reducir las barreras para los clientes y aumentarlas para los competidores

Al igual que Abobe, Microsoft está reduciendo las barreras legales a la adopción de la IA en las empresas al comprometerse a respaldar legalmente a sus clientes.

Sin embargo, esta medida puede tener repercusiones en todo el ecosistema de las empresas emergentes. Las start-ups, que a menudo impulsan la innovación pero carecen de músculo financiero para asumir amplias responsabilidades, pueden tener cada vez más dificultades para competir en un mercado en el que los pesos pesados ofrecen un "seguro jurídico" como parte del paquete.

Ya existe la preocupación de que las próximas normativas sobre IA resulten extremadamente caras de cumplir para los agentes más pequeños del sector.

Esto podría cambiar el panorama del desarrollo de la IA, consolidando el poder en manos de quienes pueden permitirse asumir riesgos legales.

¿Es así como queremos que sea la industria de la IA? ¿Una industria en la que las empresas comercializan sus productos comprometiéndose a pagar tasas legales?

Desde el punto de vista ético, esta medida no es muy clara. Aunque Microsoft afirma que valora los derechos de autor e incluso pretende protegerlos a través de estas barreras, está operando en un espacio en el que el camino "correcto" sigue siendo objeto de debate.

Además, al asumir la carga legal, podría considerarse que Microsoft elude la necesidad de consideraciones éticas más estrictas en el desarrollo y uso de la IA.

En lugar de invertir en una tecnología que respeta intrínsecamente los derechos de propiedad intelectual, la empresa opta por "limpiar" a posteriori cualquier posible desaguisado.

Esto podría verse como una forma de trueque ético, en el que Microsoft está intercambiando la promesa de apoyo legal por una mayor adopción de sus servicios, posiblemente a expensas de impulsar prácticas de IA más éticas.

¿Seguirán el ejemplo otras empresas? Probablemente.

De nuevo, este escenario sólo tiene sentido en la era de la IA.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales