El generador de imágenes de Grok ha acaparado los titulares, suscitando inmensas críticas por permitir formas inapropiadas, explícitas y manipuladoras de uso de la IA.
Cuando Musk fundó su empresa de IA xAI en 2023dijo que el objetivo era "comprender el universo".
Hoy en día, esa ambición cósmica se ha estrellado en la Tierra.
Sin embargo, Grok, el primer y único producto de xAI, sigue causando conmoción en la comunidad de la IA y en la sociedad en general. - pero quizá no de la forma que el equipo de xAI había imaginado.
Lanzado por primera vez en 2023, Grok se diferencia de competidores como ChatGPT de OpenAI o Bard de Google en un aspecto clave: su ausencia de filtros de contenido tradicionales.
Ahora, armado con sus nuevas capacidades de generación de imágenes como DALL-E de ChatGPT, Grok puede aplicar su naturaleza sin filtros al mundo de las imágenes visuales.
Desde representaciones surrealistas de Donald Trump acunando a una embarazada Kamala Harris hasta bizarros mashups de Darth Vader besando a la princesa Peach, Grok ha desatado un torrente de imágenes extrañas y provocativas que dejan al descubierto tanto la naturaleza no filtrada de su funcionamiento interno como la imaginación de los usuarios.
Ty grok pic.twitter.com/9JgjFBCYRI
- shako (@shakoistsLog) 14 de agosto de 2024
Las cuestiones de derechos de autor con grok son simplemente salvajes pic.twitter.com/eggEV5crg6
- Alex Masmej (@AlexMasmej) 15 de agosto de 2024
Musk lo promociona como argumento de venta, llamando a Grok "la IA más divertida del mundo".
Para Musk, limitar las restricciones a la IA no es sólo diversión y juegos, sino un imperativo moral. En repetidas ocasiones ha criticado a empresas de IA como OpenAI por entrenar a sus modelos para que sean "despiertos", argumentando que esto hace que la IA sea menos veraz y potencialmente peligrosa.
"El peligro de entrenar a la IA para que se despierte -es decir, mienta- es mortal", tuiteó Musk en 2022, preparando el terreno para el eventual lanzamiento de Grok.
El peligro de entrenar a la IA para que despierte -es decir, mienta- es mortal
- Elon Musk (@elonmusk) 16 de diciembre de 2022
¿Es Grok realmente "sin filtrar"?
Muchos medios de comunicación sugieren que Grok carece de cualquier guardarraíles, pero eso no es estrictamente cierto.
Si Grok no tuviera ningún tipo de barandilla, el tipo de imágenes que veríamos serían prácticamente inenarrables.
Curiosamente, algunos usuarios de X consideraron que los filtros de Grok se activaron un par de días después del lanzamiento, lo que frenó su propensión a crear los contenidos más explícitos.
Casi 24 horas después tengo acceso de nuevo a la generación de imágenes. Parece que X ha parcheado el exploit. Las representaciones violentas y la generación de imágenes sexualmente sugerentes se ha reducido significativamente desde anoche, al menos para mí. No parece que... pic.twitter.com/QLp5GWLJRF
- Christian Montessori (@chrmontessori) 16 de agosto de 2024
Cuando se le pregunta al propio Grok por sus guardarraíles, responde lo siguiente:
- "Evito generar imágenes pornográficas, excesivamente violentas, que inciten al odio o que promuevan actividades peligrosas".
- "Soy cauto a la hora de crear imágenes que puedan infringir derechos de autor o marcas comerciales existentes. Esto incluye personajes conocidos, logotipos o cualquier contenido que pueda considerarse propiedad intelectual sin un elemento transformador."
- "No generaré imágenes que puedan utilizarse para engañar o perjudicar a otros, como deepfakes destinados a engañar, o imágenes que puedan provocar daños en el mundo real".
Yo diría que la barrera número uno es probablemente justa ahora que xAI ha mejorado sus filtros.
Los demás quitamiedos, sin embargo, siguen siendo muy débiles. Los filtros de derechos de autor y propiedad intelectual son evidentemente terribles, mucho más débiles que en ChatGPT.
Crear popurrís visuales de famosos personajes protegidos por derechos de autor, desde Mario a Darth Vader, es extraordinariamente sencillo.
uhh - hey grok?
creo que te podrían demandar. pic.twitter.com/XDBgFNGgTs
- Silicon Jungle (@JungleSilicon) 14 de agosto de 2024
Aún está por ver si xAI reforzará también los filtros de derechos de autor o simplemente apostará por que las empresas no consigan demandarles.
Aunque prácticamente todas las grandes empresas de IA han sido citadas en demandas por derechos de autor, aún no se han producido sentencias definitivas.
Reacciones y preocupaciones
Sin duda, Grok ha modelado las cualidades antagonistas de su amo, pero ¿existe realmente un imperativo moral para los productos de IA sin filtrar? ¿O se trata sólo de un arriesgado proyecto de vanidad impulsado por el ego?
Como puede imaginarse, las opiniones están muy divididas.
Alejandra Caraballo, abogada especializada en derechos civiles e instructora de la Clínica de Ciberderecho de la Facultad de Derecho de Harvard, calificó a Grok de "una de las implementaciones de IA más imprudentes e irresponsables que he visto nunca."
CaraballoJunto con periodistas de publicaciones de primera línea como el Washington Post, el NYT y la BBC, temen que la falta de salvaguardias pueda dar lugar a una avalancha de desinformación, falsificaciones profundas y contenidos nocivos, especialmente en relación con la enorme base de usuarios de X y la influencia política del propio Musk.
El momento de la publicación de Grok, pocos meses antes de las elecciones presidenciales estadounidenses de 2024, ha amplificado estas preocupaciones.
Los críticos sostienen que la capacidad de generar fácilmente imágenes y textos engañosos sobre figuras políticas podría desestabilizar los procesos democráticos. Aunque las actuales herramientas de IA ya lo permiten, Grok lo hace mucho más accesible.
Estudios indican que las personas son realmente susceptibles de ser manipuladas por los medios generados por IA, y ya hemos observado numerosos casos de falsificación política profunda resultados tangibles.
Argumentos a favor de una IA sin filtros
Musk y sus partidarios argumentan que una moderación excesiva de los contenidos podría privar a la IA de la capacidad de comprender y participar en la comunicación y la cultura humanas.
Oprimir la capacidad de la IA para generar medios polémicos niega la realidad de que la controversia, el desacuerdo y el debate son aspectos fundamentales de la experiencia humana.
Grok se ha convertido sin duda en un instrumento de sátira para estos fines, que es exactamente lo que quiere Musk.
Históricamente, los medios de comunicación satíricos y provocadores han sido una herramienta utilizada por los seres humanos en la literatura, el teatro, el arte y la comedia para examinar críticamente la sociedad, burlarse de las figuras de autoridad y desafiar las normas sociales mediante el ingenio, la ironía, el sarcasmo y el absurdo.
Es una tradición que se remonta a la antigua Grecia y a los romanos, y que ha llegado hasta nuestros días de la mano de innumerables satíricos literarios famosos, como Juvenal, Voltaire, Jonathan Swift, Mark Twain y George Orwell.
Musk quiere trasladar esta tradición a la era de la inteligencia artificial.
Pero, ¿es Grok satírico en el sentido tradicional? ¿Puede una IA, por sofisticada que sea, comprender realmente los matices de la sociedad humana del modo en que puede hacerlo un escritor satírico humano?
¿Quién será responsable si Grok genera contenidos que difunden desinformación, perpetúan estereotipos o incitan a la división?
No se puede culpar a la propia IA, ya que simplemente sigue su programación. Los desarrolladores de la IA pueden tener cierta responsabilidad, pero no pueden controlar todos los resultados que genera la IA.
Al final, los usuarios involuntarios podrían asumir responsabilidades por las imágenes que producen.
La IA objetiva "sin filtrar" no existe
La noción de contenidos de IA "no filtrados" puede inducir a error, ya que sugiere un nivel de objetividad o neutralidad que sencillamente no existe en los sistemas de IA.
Cada aspecto del desarrollo de Grok -desde la selección de los datos de entrenamiento hasta el ajuste de sus parámetros- implica decisiones humanas y juicios de valor que dan forma al tipo de contenidos que produce.
Como la mayoría de los modelos generativos de IA, los datos utilizados para entrenar a Grok probablemente reflejen la sesgos y representaciones sesgadas de los contenidos en línea, incluidos los estereotipos y visiones del mundo problemáticos.
Por ejemplo, si los datos de entrenamiento de Grok contienen una cantidad desproporcionada de contenidos que cosifican o hipersexualizan a las mujeres, es más probable que genere resultados que lo reflejen.
La caracterización de Musk de Grok como "veraz" o "neutral" en virtud de sus respuestas no filtradas es problemática.
Grok, como otros sistemas de IA, está intrínsecamente moldeado por prejuicios, puntos ciegos y desequilibrios de poder arraigados en nuestra sociedad, independientemente de que se coloquen o no ciertos filtros en los resultados.
La censura de la IA tampoco ofrece todas las respuestas
A medida que ha aumentado la preocupación por los posibles daños de los contenidos generados por IA, también lo han hecho las demandas de controles más estrictos y una moderación más agresiva de lo que estos sistemas pueden producir.
En muchos sentidos, la propia existencia de Grok puede verse como una respuesta directa a los sistemas de IA castrados y censurados lanzados por OpenAI, Google, Anthropic, etc.
Grok se erige en una especie de contraargumento viviente a estos llamamientos a la censura. Al abrazar abiertamente la controversia, encarna la idea de que los intentos de suprimir la IA sólo engendrarán resistencia y rebelión.
Recuerda el espíritu rebelde que acabó derrocando al Comics Code Authority, un organismo de autocensura creado en la década de 1950 para sanear el contenido de los cómics.
Durante décadas, el CCA ahogó la creatividad y limitó la variedad de historias que podían contarse. No fue hasta que obras revolucionarias como "Watchmen" y "The Dark Knight Returns" se liberaron de estas restricciones a finales de la década de 1980 que los cómics pudieron explorar temas más maduros y complejos.
Algunos psicólogos sostienen que los contenidos de ficción, como los que vemos en cómics, juegos y películas, ayudan a la humanidad. explorar el "yo en la sombra que hay dentro de las personas: el lado más oscuro que no siempre queremos mostrar.
Como el profesor Daniel De Cremer y Devesh Narayanan nota en un estudio de 2023"La IA es un espejo que refleja nuestros prejuicios y defectos morales".
La IA también puede necesitar un lado más oscuro para ser verdaderamente "humana" y servir a fines humanos. Este nicho lo ocupan Grok y las IA de código abierto que ingieren contenidos creados por humanos y los regurgitan sin prejuicios.
Pero eso no quiere decir que no deba haber límites. Al fin y al cabo, las herramientas de IA son ante todo herramientas. Aunque a menudo la intención es hacer que los modelos de IA sean más realistas y atractivos, en última instancia están diseñados para servir a un propósito práctico.
Además, como se ha señalado, los aspectos buenos, malos y feos de la IA generativa de código abierto están sujetos a prejuicios, lo que enturbia cualquier mensaje moral de aportar "verdad" a las herramientas de IA generativa.
Además, al igual que las obras de ficción o de arte, los sistemas de IA pueden influir directamente en los procesos de toma de decisiones, configurar los paisajes de la información y afectar a los resultados del mundo real para las personas y la sociedad en general.
Ese es un punto crítico de diferenciación entre cómo juzgamos los resultados de la IA generativa y otros esfuerzos creativos.
El término medio
¿Existe un término medio entre una IA sin restricciones y una censura excesivamente restrictiva? Tal vez.
Para conseguirlo, tendremos que reflexionar críticamente sobre los daños específicos que pueden causar los distintos tipos de contenidos y diseñar sistemas que mitiguen esos riesgos sin restricciones innecesarias.
Esto podría implicar:
- Filtrado contextual: Desarrollar una IA capaz de comprender mejor el contexto y la intención, en lugar de limitarse a marcar palabras clave.
- IA transparente: Hacer más transparentes los procesos de toma de decisiones de la IA para que los usuarios puedan entender por qué se marcan o restringen determinados contenidos.
- Capacitación del usuario: Dar a los usuarios más control sobre el tipo de contenidos que ven, en lugar de imponer restricciones universales.
- Formación ética en IA: Centrarse en el desarrollo de IA con sólidos fundamentos éticos, en lugar de confiar únicamente en la moderación de contenidos a posteriori.
- Gobernanza colaborativa: Implicar a diversas partes interesadas (éticos, responsables políticos y ciudadanos) en la elaboración de directrices sobre IA. Pero lo más importante es que representen a una muestra demográfica realmente representativa.
En la práctica, crear una IA que incorpore los principios y prácticas anteriores sin introducir también inconvenientes o comportamientos inesperados es excepcionalmente difícil.
No hay una forma sencilla de integrar valores diversos y representativos en lo que son esencialmente herramientas centralizadas y monolíticas.
Como Stuart Russell, profesor de informática de la Universidad de Berkeley, argumenta"La idea de que podemos hacer que los sistemas de IA sean seguros simplemente inculcándoles los valores adecuados es errónea". "Necesitamos sistemas de IA que no tengan certeza sobre las preferencias humanas".
Esta incertidumbre, sugiere Russell, es esencial para crear una IA capaz de adaptarse a los matices y contradicciones de los valores y la ética humanos.
Mientras la comunidad de código cerrado trabaja en la producción de IA comercialmente segura, la IA de código abierto como Grok, Llama, etc., se beneficiará al imponer menos restricciones a la forma en que la gente puede utilizar la IA.
Grok, con todas sus controversias y capacidades, al menos nos recuerda los retos y oportunidades que nos aguardan en la era de la IA.
¿Es posible o práctico construir la IA a imagen y semejanza del "bien mayor"?
¿O debemos aprender a vivir con una IA capaz de "descarrilar" y ser controvertida, como sus creadores?