OpenAI: crear herramientas de IA sin utilizar material protegido por derechos de autor es "imposible"

8 de enero de 2024

Reglamento OpenAI

En una declaración de pruebas escritas ante la Cámara de los Lores del Reino Unido, OpenAI afirmó que crear herramientas de IA sin utilizar material protegido por derechos de autor es "imposible".

Esto se produce en medio de un debate cada vez más intenso en torno a la interacción de los derechos de autor con la IA, con autores, escritores y medios de comunicación como el New York Times presentando demandas contra OpenAI, Microsoft, Stability AI, Anthropic, Google y Midjourney, por nombrar sólo algunos. 

Los grandes modelos lingüísticos (LLM) como ChatGPT y los generadores de imágenes como Midjourney, que recientemente saltó a los titulares por crear un base de datos de 16.000 artistas con fines de formación de modelos, se basan en numerosos datos protegidos por derechos de autor para su formación. 

De hecho, los datos sobre derechos de autor constituyen la base del material de entrenamiento de la IA porque son abundantes, abarcan un amplio espectro de la creatividad humana y se obtienen fácilmente de Internet. 

Las empresas de IA argumentan que estos datos son de "uso justo" para el entrenamiento de sus modelos, pero muchas otras no están de acuerdo.  

En respuesta al comité selecto de comunicaciones y digital de la Cámara de los Lores, OpenAI subrayó recientemente su necesidad de material protegido por derechos de autor para los LLM de formación como el GPT-4.

OpenAI declaró: "Dado que hoy en día los derechos de autor cubren prácticamente todo tipo de expresión humana -incluidas entradas de blog, fotografías, mensajes de foros, fragmentos de código de software y documentos gubernamentales-, sería imposible entrenar los principales modelos de IA actuales sin utilizar materiales protegidos por derechos de autor."

La empresa argumentó además que restringir los materiales de formación a fuentes de dominio público daría lugar a sistemas de IA deficientes. 

"Limitar los datos de entrenamiento a libros y dibujos de dominio público creados hace más de un siglo podría dar lugar a un experimento interesante, pero no proporcionaría sistemas de IA que satisfagan las necesidades de los ciudadanos de hoy", añadió OpenAI.

Puede leer todo el presentación de pruebas escritas aquíque también aborda la trayectoria futura de la IA, los riesgos catastróficos, para los que OpenAI anuncia su Foro de Modelos Fronterizos y su equipo de Preparación, y la regulación. 

El público reacciona

Las reacciones a estas declaraciones no han sido precisamente comprensivas.

El Dr. Gary Marcus, por ejemplo, una voz prominente en la industria, dijo que esto esencialmente auto-etiqueta a los modelos de IA como un dispositivo de monetización para el trabajo de derechos de autor robados.

De hecho, parece casi un lapsus freudiano por parte de OpenAI, admitiendo que su modelo de negocio es inviable sin manipular la ley.

Hay una sensación palpable de injusticia cuando tan pocos en las altas esferas de Silicon Valley se benefician del trabajo de tantos.

La declaración de OpenAI también afirma que entienden "las necesidades" de los "ciudadanos" de hoy en día, exponiendo una desconexión cada vez mayor entre la visión de las grandes tecnológicas de la IA generativa como un proyecto humanitario, incluso filantrópico, y los temores de la gente de que esté robando sus datos y desplazando sus habilidades.

El Dr. Marcus comentó: "[Las empresas de IA]...deberían volver a la pizarra de dibujo y averiguar cómo construir software que no tenga problemas de plagio, en lugar de desplumar a artistas, escritores y otros proveedores de contenidos". 

Los pleitos se acumulan

Esto también se produce en medio de varias demandas contra OpenAI, con autores notables como John Grisham, Jodi Picoult, y George RR Martin demandar a la empresa en septiembre el año pasado por presunto "robo sistemático a gran escala". 

Dos estimados periodistas, Nicholas Gage y Nicholas Basbanes, presentaron una nueva denuncia contra OpenAI y Microsoft la semana pasadaque se suman al creciente número de desafíos legales a los que se enfrentan las empresas de inteligencia artificial, tanto en el ámbito de la escritura como en el de las artes visuales.

OpenAI también ha respondido a la demanda del New York Times, afirmando que consideran que "carece de fundamento".

Estos acontecimientos suscitan preocupación por las posibles responsabilidades legales a las que podrían enfrentarse las empresas de IA este año y en el futuro. ¿Cómo se adaptarán? ¿Tendrá la creciente resistencia del público algún impacto en la trayectoria de la industria?

¿Y cómo se pueden entrenar éticamente los modelos generativos de IA a gran escala? ¿Es compatible la ética con la encarnación actual de la tecnología? 

Las defensas de las empresas de IA están resistiendo hasta ahora, pero la brecha entre las ideas de los desarrolladores de IA sobre el "uso justo" y cómo lo perciben los demás se está ensanchando. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales