OpenAI ha respondido públicamente a la demanda por infracción de derechos de autor que The New York Times inició en diciembre.
No es probable que la declaración dé lugar a la retirada de la demanda pero da una idea de las líneas argumentales que pueden seguir los abogados de la empresa.
He aquí una versión TLDR de los cuatro puntos principales de la declaración:
1. OpenAI afirma que su objetivo es "apoyar un ecosistema periodístico sano, ser un buen socio y crear oportunidades mutuamente beneficiosas", y que sus productos pueden ayudar a periodistas y editores a hacer mejor su trabajo y llegar al público al que se dirigen de nuevas formas.
A su vez, le gustaría utilizar sus datos para entrenar sus modelos. OpenAI enumeró varias empresas de medios de comunicación, como Axel Springer, con las que ha entablado relaciones mutuamente beneficiosas.
2. OpenAI sigue creyendo que entrenar modelos de IA con datos disponibles públicamente es uso justo y enumeró los países y organizaciones que están de acuerdo.
OpenAI proporciona ahora un medio de exclusión para bloquear los bots raspadores, pero no menciona la opción de eliminar los datos históricos de entrenamiento antes de la función de exclusión.
3. La regurgitación de fragmentos literales de contenidos protegidos por derechos de autor es un "error poco frecuente" y OpenAI está trabajando para solucionarlo. Si el contenido de The Times se distribuye y publica en varias plataformas, es muy probable que ChatGPT lo reproduzca si los usuarios se empeñan en hacerlo.
OpenAI dice que espera que los usuarios "actúen con responsabilidad" y no hagan esto. El contenido del New York Times es una parte muy pequeña de los datos de entrenamiento de ChatGPT, por lo que OpenAI afirma que no supone un gran avance en lo que a datos de entrenamiento se refiere.
4. OpenAI dice que The New York Times no cuenta toda la historia. OpenAI creía que sus conversaciones avanzaban positivamente hasta que se enteró de la acción legal por un ejemplar de The Times.
Los ejemplos del contenido regurgitado procedían de artículos antiguos que estaban plagados por todo Internet. OpenAI afirma que los ejemplos del contenido literal fueron inducidos y sospecha que "o bien dieron instrucciones al modelo para que regurgitara o bien escogieron sus ejemplos de entre muchos intentos."
La declaración, que puede leer íntegramente aquítermina con OpenAI expresando su esperanza de poder arreglar las cosas con el papel. La alternativa no parece buena para ninguna de las partes.