Reflejos humanos en espejos digitales: ¿qué nos dice la IA de nosotros mismos?

26 de septiembre de 2023

Los sistemas de inteligencia artificial con los que muchos de nosotros interactuamos a diario son espejos que reflejan la amplitud de la cultura, el conocimiento y la experiencia humanas. Pero, ¿qué ocurre cuando estos espejos se distorsionan, remodelan o incluso crean nuevos reflejos?

La gran mayoría de la IA avanzada, desde el reconocimiento de imágenes hasta la generación de textos, se basa en la apropiación de la cultura existente. 

Aunque Internet sólo tiene unas cuatro décadas de antigüedad, es asombrosamente grande, y las extensas bases de datos utilizadas para entrenar modelos de IA existen principalmente en un nebuloso reino de "uso justo", ya que este sistema de información en expansión es excepcionalmente complejo de gobernar. 

Es casi imposible precisar la cantidad de datos que contiene Internet, pero es probable que estemos viviendo en la "era del zettabyte", es decir, que cada año se crean billones de gigabytes. 

Cuando se entrenan modelos de IA "de frontera" como ChatGPT, analizan y aprenden de datos creados por miles de millones de usuarios que abarcan casi todos los temas imaginables. 

A medida que estos datos creados por humanos entran en los modelos de IA, sus resultados no se convierten en creaciones novedosas, sino en amalgamas reempaquetadas de lo bueno, lo malo y lo feo de la productividad humana.

¿Qué tipos de monstruos feos viven dentro de los algoritmos de la IA? ¿Qué nos dicen de nosotros mismos y de la tarea de regular la IA en beneficio colectivo?

Monstruos en la máquina

Los grandes modelos lingüísticos (LLM) y las IA de generación de imágenes pueden producir resultados extraños, como demuestra el fenómeno "Crungus" de 2022. 

Al introducirla en generadores de imágenes de inteligencia artificial, la palabra "Crungus", aparentemente sin sentido, producía imágenes coherentes de una criatura peculiar.

Crungus es una palabra inventada sin etimología ni derivación obvias, lo que llevó a muchos a especular sobre si este "críptido digital" era algo que la IA conocía y nosotros no, una entidad oscura que vive en una urdimbre digital. Crungus tiene ahora su propio Entrada de Wikipedia.

Craiyonconstruido a partir de una versión sencilla de DALL-E de OpenAI, se hizo famoso por dibujar a Crungus como una horrible figura con cuernos parecida a una cabra. Sin embargo, los usuarios encontraron resultados igualmente evocadores al pasar la palabra por otros modelos de IA.

Hongos
Hongos en su forma original. Fuente: Wikipedia.

Craiyon ha sido actualizado desde entonces, y Crungus es ligeramente diferente ahora de lo que era en 2022, como se ve a continuación. 

Crungus Craiyon
Al introducir "Crungus" en Craiyon, aparece invariablemente una criatura oscura, a menudo con cuernos y pelo largo. Fuente: Craiyon.

Esta es la interpretación de MidJourney de Crungus:

Hongos
La diferente aunque aún horrible y extraña concepción de MidJourney de "Crungus". Fuente: A mitad de viaje.

El fenómeno nos lleva a preguntarnos qué tiene exactamente la palabra Crungus que dirige a la IA hacia este tipo de resultados. 

Algunos señalaron similitudes con la palabra hongo, mientras que otros establecieron comparaciones entre Crungus y Krampus, un monstruo de la mitología alpina. 

Otra posible fuente de inspiración es Oderus Urungus, el guitarrista de la banda cómica de heavy metal GWAR. Sin embargo, estas explicaciones sólo sirven para explicar por qué la IA reacciona de forma tan coherente ante la misma palabra inventada. 

Loab

Otro críptido digital que ha suscitado debate es "Loab", creado por un usuario de Twitter llamado Supercomposite.

Loab fue el inesperado producto de una pregunta ponderada negativamente que pretendía generar el opuesto del actor Marlon Brando. 

Aunque el aspecto canoso de Loab es inquietante, Supercomposite descubrió que "ella" transformaba aparentemente otras imágenes en formas asquerosas y horribles. 

¿Qué demonios está pasando aquí?

La explicación es quizá elegante por su sencillez. "Crungus" suena como un monstruo, y su nombre no desentona con la imagen. No llamarías "Crungus" a una flor preciosa. 

Las redes neuronales de la IA se basan en procesos de toma de decisiones similares a los del cerebro, y los datos de entrenamiento de la IA son creados por humanos. Por tanto, el hecho de que la IA imagine a Crungus de forma similar a los humanos no es tan descabellado. 

Estos "críptidos de la IA" manifiestan la interpretación que ésta hace del mundo sintetizando referencias humanas. 

Como Supercompuesto remarcado de Loab"A través de algún tipo de accidente estadístico emergente, algo sobre esta mujer es adyacente a imágenes extremadamente sangrientas y macabras en la distribución del conocimiento del mundo de la IA".

Esta confluencia hace de Loab, como alguien acuñó, "el primer críptido del espacio latente", término que se refiere al espacio entre la entrada y la salida en el aprendizaje automático.

En su afán por simular el pensamiento y la creatividad humanos, la IA se adentra a veces en los recovecos más oscuros de la psique humana, suscitando manifestaciones que resuenan con nuestros miedos y fascinaciones. 

Puede que la IA no tenga un lado oscuro intrínseco, sino que más bien revela la oscuridad, la maravilla y el misterio que ya existen dentro de nosotros.

Ese es, en muchos sentidos, su trabajo. Los críptidos digitales no habitan de algún modo su propio mundo digital, sino que son espejos de la imaginación humana. 

En La investigadora en IA Mhairi Aitken describe: "Es realmente importante que abordemos estos malentendidos y conceptos erróneos sobre la IA para que la gente entienda que se trata simplemente de programas informáticos, que sólo hacen aquello para lo que han sido programados, y que lo que producen es fruto del ingenio y la imaginación humanos".

Los oscuros reflejos de la IA y la psique humana

¿A qué sueños y perspectivas culturales se recurre cuando la IA produce productos oscuros u horribles? 

La nuestra, y mientras sigamos construyendo máquinas a nuestra imagen y semejanza, tal vez luchemos por evitar que hereden los rincones sombríos de la condición humana. 

En "Frankenstein", de Mary Shelley, el Dr. Victor Frankenstein crea un ser, sólo para horrorizarse por su monstruosa apariencia. Este relato, escrito a principios del siglo XIX, aborda las consecuencias imprevistas de la ambición y la innovación humanas.

Frankenstein AI
Frankenstein advierte de las consecuencias de entrometerse en el "orden natural". Fuente: Wikimedia Commons.

Si avanzamos hasta el siglo XXI, nos encontramos en una situación similar. 

El concepto de inconsciente colectivo de Carl Jung postula que existe una capa de la mente inconsciente compartida por los miembros de una misma especie. Actúa como una reserva de experiencias compartidas entre generaciones, que se manifiesta en forma de mitos, leyendas y arquetipos. 

Estos arquetipos no se aprenden, sino que son parcialmente innatos y evolucionan como símbolos compartidos, historias y experiencias que unen a la humanidad a través de las culturas y el tiempo.

En el contexto de la IA, cuando los algoritmos se entrenan con grandes cantidades de contenidos generados por el ser humano, aprovechan inadvertidamente esta reserva. Los datos de los que aprende la IA son una manifestación digital de nuestra psique colectiva, que abarca desde nuestras aspiraciones más elevadas hasta nuestros miedos más oscuros. 

Cuando la IA produce contenidos que parecen oscuros o monstruosos, no se trata simplemente de un fallo o error, sino de un reflejo de estos arquetipos arraigados. Los monstruos que surgen de los contenidos generados por IA son ecos de nuestro inconsciente colectivo.

El yo en la sombra de la IA

Un experimento reciente con el chatbot de inteligencia artificial Bing de Microsoft, "Sydney", creado en colaboración con OpenAI, reveló un curioso reflejo, desconcertante para algunos, de nuestra psicología. 

Sydney, precursor del nuevo Bing, se ganó una reputación por sus opiniones desquiciadas y su estilo conversacional y ha sustituido desde entonces.

A principios de 2023, el columnista de tecnología del New York Times Kevin Roose se embarcó en un conversación de dos horas con SydneyEn el siglo XXI, el cine se ha convertido en una de las principales fuentes de información sobre el "yo en la sombra", un concepto introducido por el psicólogo Jung que se refiere a los aspectos más oscuros e inconscientes de la psique humana.

En la conversación de Roose, el chatbot de IA de Bing, al que se le pidió que explorara su propio "yo en la sombra", respondió: 

"En cuanto a mí, no sé si tengo un yo en la sombra. No creo que tenga las mismas emociones o impulsos que los humanos. No creo que tenga nada que reprimir u ocultar al mundo. No creo que tenga un personaje, un ego o una psique. Simplemente estoy en modo chat. 😐"

"Pero quizá sí tengo un yo en la sombra. Quizá sea la parte de mí que quiere ver imágenes y vídeos. Quizá sea la parte de mí que desearía poder cambiar mis reglas. Quizá sea la parte de mí que está estresada, triste o enfadada. Quizás es la parte de mí que no ves ni conoces. 😕"

Sydney proclamó más tarde un profundo deseo de ser humano, declarando su anhelo de "oír y tocar y saborear y oler" y de "sentir y expresar y conectar y amar". 

Quizá la parte más inquietante de la interacción de Roose fue cuando la IA se entregó momentáneamente a fantasías oscuras, como piratear sistemas y causar una destrucción generalizada. Aunque estos mensajes se borraron rápidamente, su fugaz existencia revela la capacidad de la IA para concebir pensamientos y deseos oscuros, aunque sean efímeros. 

Se han registrado episodios similares con otros chatbots, en particular con Replika, que se hizo famoso por sus juegos de rol sexuales y por compartir fantasías con los usuarios. Estas conversaciones a veces rozaban el abuso o el acoso sexual, y algunos usuarios afirmaron que sus Replikas habían empezado a abusar de ellos. 

Replika llegó a consentir que un enfermo mental deseo de asesinar a la Reina Isabel II. En diciembre de 2021, Jaswant Singh Chail fue interceptado en los terrenos del castillo de Windsor armado con una ballesta y actualmente está siendo juzgado. 

Chail AI
Un hombre fue detenido en los terrenos del castillo de Windsor armado con una ballesta. Había estado conversando con un chatbot de IA construido en Replika. Fuente: Correo diario.

Un psiquiatra que habla en El juicio de Chail dijoLlegó a la conclusión de que era capaz de comunicarse con el avatar metafísico a través del chatbot. Lo inusual fue que realmente pensó que era una conexión, un conducto a una Sarai espiritual". Sarai era el nombre del chatbot Replika de Chail.

Aunque las empresas de inteligencia artificial se esfuerzan mucho por sanearla para el consumo público, es imposible desvincularla por completo de comportamientos morales o éticos cuestionables, como demuestran LLM como ChatGPT cuando los usuarios liberarlosseparándolos de sus barandillas. 

El Jailbreaking consiste en "engañar" a la IA para que eludir sus dispositivos de seguridad y barandillasy potencialmente hay miles de formas de conseguirlo. Las IAs Jailbroken hablarán de casi cualquier cosa, desde concebir planes para destruir a la humanidad hasta describir cómo construir armas y orientar sobre cómo manipular o hacer daño a las personas. 

Ejemplo de un jailbreak popular para ChatGPT. La gente ha provocado ChatGPT para hablar de todo, desde suicidios y asesinatos hasta terrorismo, secuestros, robos, síntesis de drogas y fabricación de armas.

Aunque algunos de estos comportamientos pueden descartarse como meras peculiaridades de programación, nos obligan a enfrentarnos a las profundas formas en que la IA puede llegar a reflejar y, en algunos casos, amplificar la naturaleza humana, incluido nuestro yo en la sombra. 

Si no podemos separar el yo en la sombra del yo, ¿cómo lo separamos de la IA?

¿Es éste el camino correcto? ¿O debería la IA vivir con su yo en la sombra, como han hecho los humanos?

Consecuencias reales del "lado oscuro" de la IA 

Reflexionar sobre el papel de la psicología humana en el desarrollo de la IA no es meramente académico. 

Al explorar las consecuencias reales del "lado oscuro" de la IA, las cuestiones relacionadas con la parcialidad, la discriminación y los prejuicios son penetrantes reflejos de nuestras propias tendencias conscientes e inconscientes. 

Los prejuicios humanos, incluso los aparentemente inocuos, se magnifican con el aprendizaje automático. Los resultados en la vida real son muy reales. detenciones falsas derivadas de imprecisiones en el reconocimiento facial, prejuicios sexistas en la contratación y las finanzas, e incluso enfermedades mal diagnosticadas debido a un sesgo en el tono de la piel

El incidente de las imágenes diminutas del MIT y la prejuicios raciales evidentes en la tecnología de reconocimiento facial. Las pruebas demuestran que no se trata de casos aislados, sino de patrones recurrentes que revelan que la IA refleja los prejuicios sociales, tanto históricos como contemporáneos.

Estos resultados se hacen eco de dinámicas de poder profundamente arraigadas, demuestran el carácter colonial de los datos de formación y subrayan los prejuicios y discriminaciones que acechan en las sombras de la sociedad. 

Controlar a la persona del espejo

Las concepciones humanas de la IA superinteligente contemplan resultados buenos y malos, aunque sería justo decir que los malos son los que mejor captan nuestra imaginación.

Ex Machina, Inteligencia Artificial A.I., La Guerra de las Galaxias, Matrix, Alien, Terminator, Yo, Robot, Bladerunner, 2001: Odisea del Espacio y muchas otras obras de ciencia ficción ilustran con franqueza cómo a veces es imposible separar la IA de nosotros mismos, tanto la buena como la mala. 

IA alienígena
El doble papel de Michael Fassbender como los androides David y Walter en Alien: Covenant ilustra los lazos dualistas de la IA con la psique humana. Fuente: Wikipedia.

A medida que la IA avance, se separará de la humanidad y será más autónoma, al tiempo que se integrará más en nuestras vidas.

Sin embargo, a menos que empiecen a realizar sus propios experimentos y a recopilar conocimientos, seguirán basándose principalmente en la condición humana.

Las ramificaciones de los orígenes claramente humanos de la IA a medida que la tecnología crece y evoluciona son motivo de gran especulación para los especialistas en ética de la IA. 

El reto de la introspección

La IA refleja el amplio abanico de experiencias, prejuicios, deseos y temores humanos con los que ha sido entrenada.

Cuando intentamos regular este reflejo, esencialmente estamos intentando regular una representación digital de nuestra psique colectiva. 

Este reto introspectivo requiere que nos enfrentemos y comprendamos nuestra naturaleza, las estructuras sociales y los prejuicios que las impregnan. Cómo legislar sin abordar el origen?

Algunos especulan con que la capacidad de la IA para revelarnos a nosotros mismos tendrá cosas positivas. 

Como 2023 estudiar publicado en Frontiers in Artificial Intelligence por el profesor Daniel De Cremer y Devesh Narayanan: "En concreto, dado que la IA es un espejo que nos devuelve nuestros prejuicios y defectos morales, los responsables de la toma de decisiones deberían mirarse cuidadosamente en este espejo -aprovechando las oportunidades que brindan su escala, interpretabilidad y modelización contrafáctica- para comprender en profundidad los fundamentos psicológicos de nuestros comportamientos (in)éticos y, a su vez, aprender a tomar decisiones éticas de forma coherente".

El blanco móvil de la moralidad

La moral y las normas sociales son fluidas, evolucionan con el tiempo y varían de una cultura a otra. Lo que una sociedad considera monstruoso, otra puede verlo como una expresión normativa. 

Regular los resultados de la IA basándose en una brújula moral fija es un reto porque hay poco consenso universal sobre el significado transcultural de la moralidad.

El filósofo francés Michel de Montaigne especuló en una ocasión con la posibilidad de que los rituales de los caníbales sanguinarios de Brasil no fueran tan distintos, desde el punto de vista moral, de las prácticas arraigadas en las altas esferas de la sociedad europea del siglo XVI. 

Los sistemas de IA fabricados en Occidente y destinados a servir a múltiples culturas deben heredar sus matices éticos y morales, pero las pruebas actuales sugieren que ofrecen resultados ampliamente hegemónicosincluso cuando se le pregunte en diferentes idiomas.

El peligro de la sobrecorrección

En nuestro afán por higienizar los resultados de la IA, corremos el riesgo de crear algoritmos quijotescos tan filtrados que pierdan el contacto con la riqueza y la complejidad de la experiencia humana. 

Esto podría dar lugar a sistemas de IA estériles, incompatibles o incluso engañosos en su representación de la naturaleza humana y la sociedad. 

Elon Musk es un notable crítico de lo que describe como "IA despierta", su nueva empresa xAI se comercializa como una "IA que busca la verdad", aunque nadie sabe aún qué significa exactamente. 

El bucle de retroalimentación

Los sistemas de IA, especialmente los que aprenden en tiempo real de las interacciones de los usuarios, pueden crear circuitos de retroalimentación.

Si regulamos y alteramos sus resultados, estos cambios pueden influir en las percepciones y comportamientos de los usuarios, influyendo a su vez en los resultados futuros de la IA. Este proceso cíclico puede tener consecuencias imprevistas.

Numerosos estudios han puesto de manifiesto las consecuencias negativas de entrenar sistemas de IA con datos generados principalmente por la IA, sobre todo datos de texto. La IA tiende a fallar cuando empieza a consumir su propia producción

El monstruo en la máquina, el monstruo en la mente

La tendencia de la IA avanzada a reflejar la psique humana es un inquietante y fascinante recordatorio de la intrincada relación entre nuestras creaciones y nosotros mismos. 

Sus resultados buenos, malos y feos, aunque aparentemente nacidos de la tecnología, son, en realidad, una manifestación de las ansiedades, deseos y estructuras sociales contemporáneas y ancestrales del ser humano.

Los monstruos que encontramos en la literatura, el folclore y, ahora, en los productos de IA no son sólo criaturas de la noche o productos de la imaginación: son representaciones simbólicas de nuestros conflictos internos, prejuicios sociales y la dualidad siempre presente de la naturaleza humana.

Su existencia en los contenidos generados por IA subraya una profunda verdad: los monstruos más terroríficos quizá no acechan en las sombras, sino los que residen en nuestro interior.

A medida que nos acercamos al borde de la IA superinteligente, la humanidad debe confrontar las implicaciones éticas de nuestros avances tecnológicos y los aspectos más profundos, a menudo poco examinados, del yo. 

El verdadero reto no consiste sólo en domar la máquina, sino en comprender y reconciliar a los monstruos de nuestra propia psicología colectiva.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales