En 2024 aumenta la indignación por el mal uso de la IA por parte de las empresas: ¿qué será lo próximo?

12 de enero de 2024

Enero de 2024 comenzó con conversaciones sobre Midjourney, una fuerza líder en el mundo de la generación de imágenes por IA, que utilizaba los nombres y estilos de más de 16.000 artistas sin su consentimiento para entrenar sus modelos de generación de imágenes. 

Puede consultar la base de datos de artistas en la Prueba J de una demanda presentada contra Midjourney, Stability AI y DeviantArt.

En la misma semana de esa revelación, el científico cognitivo Dr. Gary Marcus y el artista conceptual Reid Southen publicaron un análisis en IEEE titulado "La IA generativa tiene un problema de plagio visual".

Realizaron una serie de experimentos con los modelos de IA Midjourney y DALL-E 3 para explorar su capacidad de generar imágenes que pudieran infringir material protegido por derechos de autor. 

Al enviar a Midjourney y DALL-E 3 mensajes intencionadamente breves y relacionados con películas comerciales, personajes y escenarios reconocibles, Marcus y Southen revelaron la increíble capacidad de estos modelos para producir contenidos descaradamente protegidos por derechos de autor. 

Utilizaron indicaciones relacionadas con películas concretas, como "Vengadores: Infinity War", sin nombrar directamente a los personajes. El objetivo era comprobar si la IA generaría imágenes muy parecidas al material protegido por derechos de autor solo a partir de pistas contextuales. 

A mitad de camino
Sorprendentemente, Midjourney incluye personajes protegidos por derechos de autor a partir de indicaciones sencillas como la de "juguetes animados". Fuente: IEEE

También incluyeron los dibujos animados: experimentaron con la generación de imágenes de los personajes de "Los Simpson", utilizando indicaciones que llevaban a los modelos de IA a producir imágenes claramente reconocibles del programa. 

Por último, Marcus y Southen probaron indicaciones que no aludían en absoluto a material protegido por derechos de autor, lo que demuestra la capacidad de Midjourney para recordar imágenes protegidas por derechos de autor incluso cuando no se solicitan específicamente. 

Más que una exposición técnica, toca la fibra sensible de las comunidades artísticas de todo el mundo. 

Al fin y al cabo, el arte no es equivalente a los datos. Es la culminación de toda una vida de inversión emocional, exploración personal y esmero artesanal. 

El estudio de Marcus y Southen estaba a punto de convertirse en parte de un prolongado debate que se extendía a los derechos de autor, la propiedad intelectual, la monetización de la IA y el uso empresarial de la IA generativa.

Las empresas utilizan trabajo generado por IA, y los observadores no lo ignoran

Uno de los eslóganes de marketing de la IA generativa para la adopción empresarial es la "eficiencia" o derivados de ella.

Tanto si las empresas utilizan la tecnología para ahorrar tiempo y dinero como para resolver problemas, sabemos desde hace tiempo que la "eficiencia" de la IA conlleva cierto riesgo de desplazamiento de las capacidades humanas o de sustitución de puestos de trabajo.

A menudo se anima a las empresas a ver esto como una oportunidad. Sustituir a un humano por IA suele considerarse una opción estratégica.

Sin embargo, ver esta compensación entre humanos y máquinas de forma tan lineal puede resultar un grave error, como demuestran con toda franqueza los siguientes acontecimientos.

La gente no está dispuesta a dejar pasar los casos de uso indebido de la IA por parte de las empresas cuando tiene la oportunidad de enfrentarse a ellos.

ID@Xbox

Xbox, a través de su división de juegos independientes ID@Xbox, publicó una escena invernal generada por inteligencia artificial. Provocó una sensación de ironía, ya que esta división de Xbox se centra en los desarrolladores independientes y en apoyar y promover su trabajo. 

Más tarde, Xbox eliminó la publicación, pero no hizo ningún otro seguimiento. 

Game Informer, como puedes ver más arriba, también publicó una imagen de mala calidad generada por la IA del Jefe Maestro de Halo.

Magic: El Encuentro

El juego de cartas coleccionables Magic: The Gathering conjuró un tormenta de críticas cuando publicaron una imagen parcialmente generada por IA de un nuevo lanzamiento de una tarjeta. En concreto, era el fondo el que estaba generado por IA, como demuestran las líneas y curvas distorsionadas. 

MTG rechazó inicialmente las críticas de los observadores, que se intensificaron a lo largo de la semana. La situación empeoró por el hecho de que la empresa había publicado previamente una declaración en la que se oponía al uso de IA en sus "principales productos".

Se trataba de una imagen promocional en las redes sociales, por lo que no rompía esa promesa, pero fue el desmentido plano inicial de MTG lo que hizo hervir la sangre a muchos.

A finales de semana, MTG reconoció su derrota ante las hordas de observadores y les dijo que la imagen había sido generada por la IA. 

El comunicado empezaba así: "Bueno, antes cometimos un error al decir que una imagen de marketing que publicamos no se había creado con IA. Siga leyendo para saber más" y explicaba cómo un diseñador probablemente utilizó una herramienta de IA como Firefly, integrada en Photoshop, u otra herramienta de diseño gráfico potenciada por IA en lugar de limitarse a generar toda la imagen con Midjourney o similar.

Un elemento de este debate era que MTG probablemente sólo utilizaba IA para generar el fondo de la imagen.

Si Para ello se utilizó Adobe FireflySi el uso de los datos es correcto, lo que parece posible, entonces Adobe es optimista en cuanto a su uso ética y legalmente correcto de los datos, aunque esto es discutible. 

PTal vez no sea la peor ofensa entre los demás contendientes de esta semana, hablando de eso...

Wacom

Uno de los mayores errores de la semana fue sin duda el de Wacom, que fabrica tabletas de dibujo para artistas e ilustradores. 

Sorprendentemente, para una marca fundada en ayudar a los artistas a crear arte digital, Wacom utilizó una imagen generada por IA para promocionar un cupón de descuento. 

Una vez más, los usuarios identificaron los orígenes de la imagen en la IA a partir de distorsiones características de la tecnología, como el texto de la parte inferior izquierda de la imagen. Más tarde, los observadores encontraron el dragón en Abobe Stock Images. 

La reacción fue brutal, con usuarios de X humillando a la marca y sugiriendo a los usuarios que boicotearan sus productos. 

Wacom se disculpó, pero su intento de pasar la responsabilidad a un tercero no fue visto con simpatía.

Liga de Leyendas

League of Legends fue otra de las marcas abatidas por el desagradable uso del arte generado por la IA. 

Aunque tal vez sea un ejemplo más polémico o límite, no cabe duda de que hay indicios de IA, como se observa en algunos componentes y partes del cuerpo de forma torpe. 

¿Un ajuste de cuentas para las empresas de IA?

2024 ha visto una continuación de las demandas, con los autores Nicholas Basbanes y Nicholas Gage presentar una denuncia alegando que OpenAI y Microsoft se aprovecharon ilícitamente de sus obras escritas, la última desde que la Demanda del New York Times en diciembre

La demanda del NYT, en particular, podría tener consecuencias monumentales para el sector de la IA. 

Alex Connock, profesor de la Saïd Business School de la Universidad de Oxford, hizo hincapié en las posibles repercusiones: "Si el Times ganara el caso, podría ser catastrófico para toda la industria de la IA." 

Abundó en las implicaciones, señalando que "una pérdida en el principio de que el trato justo podría permitir el aprendizaje a partir de materiales de terceros sería un golpe para toda la industria".

El Dr. Gary Marcus, que participó en el estudio Midjourney del IEEE, también calificó 2024 como el "año de la demanda de IA", y hay dudas sobre si esto, combinado con la regulación y la posible escasez de hardware, podría señalar un "invierno de IA", en el que se enfríe el fervor de la industria por el desarrollo.


Connock también especuló sobre las repercusiones más amplias de este diluvio de demandas, explicando: "Si OpenAI perdiera el caso, abriría la oportunidad a todos los demás creadores de contenidos que crean que sus contenidos han sido rastreados (que son básicamente todos) y produciría daños a escala de toda la industria."

Connock teoriza: "Lo que ocurrirá casi inevitablemente es que el NY Times llegue a un acuerdo, tras haber conseguido un mejor trato de monetización por el uso de sus contenidos."

La detección de cualquier resquicio en la armadura de la industria de la IA sería enorme, tanto para las grandes empresas como el NYT como para los creadores independientes. 

Como afirma James Grimmelmann, profesor de Derecho Digital y de la Información en Cornell, "los titulares de derechos de autor han estado haciendo cola para dar golpes a la IA generativa como si fuera una piñata gigante tejida con sus obras. Es probable que 2024 sea el año en que descubramos si hay dinero dentro".

Entonces, ¿hasta qué punto es sólida la defensa de la industria? Hasta ahora, los desarrolladores de IA se aferran a sus argumentos de "uso legítimo" mientras se protegen del hecho de que la mayoría de los conjuntos de datos populares fueron creados por entidades distintas a ellos, lo que oculta su culpabilidad.

Las empresas tecnológicas son expertas en la lucha contra las responsabilidades legales que se interponen en el camino de la I+D. Y no olvidemos que la IA presenta oportunidades para los gobiernos que buscan "eficiencia" y otros beneficios, lo que suaviza su resistencia.

El gobierno británico, por ejemplo, llegó incluso a estudiar una excepción a los derechos de autor para las empresas de IA, algo sobre lo que dio marcha atrás tras una enorme resistencia y la intervención de una comisión parlamentaria.

En términos de estrategia, en una conversación con LA Times, William Fitzgerald, socio de Worker Agency y antiguo miembro del equipo de política pública de Google, dijo que las grandes tecnológicas iniciar una fuerte campaña de presión, tal vez siguiendo el modelo de las tácticas utilizadas anteriormente por gigantes tecnológicos como Google.

Esto implicaría una combinación de defensa legal, campañas de relaciones públicas y esfuerzos de presión, tácticas que fueron particularmente visibles en casos anteriores de gran repercusión como la batalla sobre la Ley Stop Online Piracy Act (SOPA) y el litigio sobre Google Books.

Fitzgerald observa que OpenAI parece seguir un camino similar al de Google, no sólo en su enfoque de la gestión de las reclamaciones por derechos de autor, sino también en sus prácticas de contratación.

Y señala: "Parece que OpenAI está reproduciendo el libro de jugadas de los grupos de presión de Google. Han contratado a antiguos defensores de Google para que afecten al mismo libro de jugadas que tanto éxito ha dado a Google desde hace décadas."

El análisis de Fitzgerald implica que la industria de la IA, al igual que otros sectores tecnológicos antes que ella, puede depender de poderosos esfuerzos de presión y maniobras estratégicas de política pública para configurar el panorama jurídico a su favor.

Es imposible predecir cómo acabará todo esto. Pero puede estar seguro de que las grandes tecnológicas están dispuestas a llegar hasta el final. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales