¿Está adquiriendo la IA algún nivel de conciencia? ¿Cómo sabremos si lo hace y cuándo?
Los grandes modelos lingüísticos (LLM) pueden entablar conversaciones realistas y generar textos sobre diversos temas, lo que suscita debates sobre cuándo se convierten en sintientes o conscientes, conceptos que, aunque a menudo van unidos, son distintos.
La sensibilidad se refiere principalmente a la sensación y la conciencia, mientras que la conciencia es más compleja y global.
Este mismo año, Microsoft, tras probar el GPT-4 de OpenAI, indicado que el modelo mostraba "destellos" de "inteligencia general", término utilizado para definir la IA flexible, adaptable y con altas capacidades cognitivas.
Blake Lemoine, antiguo ingeniero de Google, afirmó que la IA LaMDA de Google había alcanzado un nivel de sensibilidad aún más controvertido. Lemoine dijo de LaMDA: "Google podría llamar a esto compartir propiedad. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo", siendo ese "compañero de trabajo" el sistema de IA que expresó "miedo" a "ser desconectado".
En un intento de fundamentar el debate en torno a la conciencia de la IA, un equipo interdisciplinar de investigadores en filosofía, informática y neurociencia llevó a cabo un examen exhaustivo de los sistemas de IA más punteros de la actualidad.
En estudiardirigido por Robert Long y sus colegas del Centro para la Seguridad de la IA (CAIS), una organización sin ánimo de lucro con sede en San Francisco, analizaron múltiples teorías sobre la conciencia humana. Establecieron una lista de 14 "propiedades indicadoras" que probablemente presentaría una IA consciente.
La CAIS es la misma organización sin ánimo de lucro que propuso ocho cabeceras riesgos potenciales para la IA en junio.
Tras analizar sus resultados, el equipo descubrió finalmente que los modelos más complejos no superan prácticamente ninguna de las pruebas de conciencia a las que fueron sometidos.
Los investigadores evaluaron varios modelos de IA, entre ellos El agente adaptativo de DeepMind (ADa) y PaLM-Edescrito como un LLM multimodal robótico encarnado.
Al comparar estas IA con los 14 indicadores, los investigadores no encontraron pruebas sustanciales que indicaran que ningún modelo de IA poseyera conciencia.
Más información sobre el estudio
Este minucioso estudio interdisciplinar analizó numerosas teorías de la conciencia -que sigue siendo un concepto poco descrito en toda la literatura científica- y las aplicó a los modos actuales de IA.
Aunque el estudio no determinó que las IA actuales posean consciencia, sienta las bases para futuros análisis, al proporcionar esencialmente una "lista de comprobación" a la que los investigadores pueden remitirse cuando analicen las capacidades de sus IA.
Comprender la conciencia también es vital para informar el debate público en torno a la IA.
Sin embargo, la conciencia no es un concepto binario y sigue siendo excepcionalmente difícil determinar sus límites.
Algunos investigadores creen que la conciencia se desarrollará espontáneamente una vez que la IA se acerque a la "singularidad", que básicamente marca el punto en el que la complejidad de los sistemas de IA supera la cognición humana.
Estos son los 14 indicadores de conciencia que evaluaron los investigadores:
Teoría del procesamiento recurrente (TPR)
La teoría del procesamiento recurrente se centra en los aspectos temporales del procesamiento de la información.
En el contexto de la conciencia, subraya cómo la información se mantiene y actualiza en forma de bucle a lo largo del tiempo.
Esto se considera fundamental para construir la riqueza de las experiencias conscientes.
RPT-1: Módulos de entrada mediante recurrencia algorítmica
La recurrencia algorítmica se refiere aquí al procesamiento repetitivo de información de forma cíclica.
Piénsalo como un bucle de programa informático que actualiza continuamente sus datos en función de nuevas entradas.
RPT-2: Módulos de entrada que generan experiencias perceptivas organizadas e integradas
Al igual que los humanos y otros animales, el sistema no se limita a recibir información sensorial, sino que la integra en una "imagen" coherente y unificada que puede percibirse como una experiencia única.
Teoría del espacio de trabajo global (GWT)
El segundo conjunto de indicadores especificado por el equipo de investigación fue la teoría del espacio de trabajo global, que propone que la conciencia surge de las interacciones entre varios módulos cognitivos en un "espacio de trabajo global".
Este espacio de trabajo sirve como una especie de escenario cognitivo donde los distintos módulos pueden "emitir" y "recibir" información, lo que permite una experiencia unificada y coherente.
GWT-1: Múltiples sistemas especializados funcionando en paralelo
En esencia, esto significa que un sistema de IA debe tener múltiples "minicerebros" especializados, cada uno responsable de funciones diferentes (como la memoria, la percepción y la toma de decisiones), y deben poder funcionar simultáneamente.
GWT-2: Espacio de trabajo de capacidad limitada
Esta idea está relacionada con el hecho de que el ser humano sólo puede concentrarse en una cantidad limitada de información en un momento dado.
Del mismo modo, un sistema de IA necesitaría tener un enfoque selectivo, es decir, la capacidad de determinar la información más esencial a la que "prestar atención".
GWT-3: Difusión mundial
La información que llega al espacio de trabajo global debe estar disponible para todos los módulos cognitivos, de modo que cada "minicerebro" pueda utilizar esa información para su función especializada.
GWT-4: Atención dependiente del estado
Se trata de una forma más avanzada de concentración. El sistema de IA debe ser capaz de cambiar su atención en función de su estado o tarea actual.
Por ejemplo, puede dar prioridad a los datos sensoriales cuando se desplaza por una habitación, pero cambiar a algoritmos de resolución de problemas cuando se enfrenta a un rompecabezas.
Teorías computacionales de orden superior (HOT)
Las teorías de orden superior abordan la conciencia desde una perspectiva metacognitiva.
Argumentan que la experiencia consciente no consiste sólo en tener percepciones, pensamientos o sentimientos, sino también en ser consciente de que se están teniendo estas experiencias.
Esta conciencia es crucial y es en parte la razón por la que los animales altamente inteligentes son sociables: somos colectivamente conscientes de nuestra existencia e interdependencias.
HOT-1: Módulos de percepción generativa, descendente o ruidosa
En lugar de recibir pasivamente la información, el sistema interpreta o genera percepciones.
Imagina un programa de edición fotográfica que no sólo pudiera modificar una foto, sino que entendiera por qué hay que ajustar determinadas características.
HOT-2: Seguimiento metacognitivo
Esto significa que el sistema debe tener un "proceso de pensamiento" sobre sus "procesos de pensamiento".
Debe ser capaz de cuestionar sus propias decisiones y percepciones, como hacen los humanos y algunos animales.
HOT-3: Agencia guiada por un sistema general de formación de creencias
La agencia implica que el sistema de IA no se limita a analizar pasivamente los datos, sino que toma decisiones basadas en su análisis.
Además, estas decisiones actualizan continuamente las "creencias" o modelos de datos del sistema, de forma muy parecida a cómo los humanos crean conocimiento progresivo a través de la curiosidad y la investigación.
HOT-4: Capacidad de mantener preferencias
Se refiere a la capacidad del sistema para racionalizar datos complejos en formas más sencillas y manejables, lo que potencialmente le permite tener "preferencias" o "experiencias" subjetivas.
Teoría de los esquemas atencionales (AST)
La teoría de los esquemas atencionales postula que la conciencia surge de la comprensión por parte del cerebro de su propio estado atencional.
AST-1: Modelo predictivo que representa el estado actual de la atención
El sistema de IA debería ser capaz de proyectar en qué se centrará a continuación, lo que indica una especie de autoconciencia sobre su propio estado cognitivo.
Tratamiento predictivo (PP)
Los modelos de procesamiento predictivo describen la capacidad de predicción del cerebro.
Actualiza continuamente sus modelos del mundo y los utiliza para predecir la información sensorial entrante.
PP-1: Módulos de entrada con codificación predictiva
Se trata de utilizar datos pasados y presentes para predecir estados futuros, lo que permite al sistema "anticiparse" en lugar de limitarse a "reaccionar".
Agencia y personificación (AE)
Las teorías de la agencia y la corporeidad proponen que ser capaz de actuar y comprender el efecto de las acciones son indicadores críticos de la conciencia.
La personificación es muy distinta de la de los animales y otros organismos vivos, que poseen sistemas nerviosos estrechamente vinculados que alimentan constantemente la información sensorial hacia y desde los órganos y los sistemas centrales de procesamiento.
AE-1: Agencia
El concepto de agencia hace referencia al aprendizaje a partir de la información recibida para adaptar las acciones futuras, sobre todo cuando hay objetivos contrapuestos. Imagina un coche autoconducido que aprende a optimizar tanto la velocidad como la seguridad.
AE-2: Incorporación
Se trata de la capacidad de un sistema para comprender cómo sus acciones afectan al mundo que le rodea y cómo esos cambios, a su vez, le afectarán a él.
Los investigadores trabajan actualmente en sistemas de IA conectados con sensores avanzados, como el sistema de IA multimodal PaLM-E desarrollado por Google, que fue uno de los sistemas analizados por los investigadores.
Conciencia en la IA: equilibrar los riesgos de la infraatribución y la sobreatribución
Los investigadores y el público en general buscan claridad sobre el grado real de inteligencia de la IA y sobre si se encamina positivamente hacia la conciencia.
La mayoría de las IA públicas, como ChatGPT, son "cajas negras", es decir, no entendemos del todo cómo funcionan. - sus mecanismos internos son secretos patentados.
El director del estudio, Robert Long, subrayó la necesidad de un enfoque interdisciplinario para analizar la conciencia de las máquinas, advirtiendo del "riesgo de confundir la conciencia humana con la conciencia en general".
Colin Klein, miembro del equipo de la Universidad Nacional de Australia, también destacó las implicaciones éticas de la conciencia de la IA. Explicó que es crucial entender la conciencia de las máquinas "para asegurarnos de que no la tratamos de forma poco ética, y para asegurarnos de que no permitimos que nos trate de forma poco ética".
Y añadió: "La idea es que si podemos crear estas IA conscientes, las trataremos básicamente como esclavas y haremos todo tipo de cosas poco éticas con ellas".
"La otra cara es si nos preocupamos por nosotros, y qué tipo de control tendrá la IA sobre nosotros; ¿podrá manipularnos?".
Entonces, ¿cuáles son los riesgos de subestimar o sobreestimar la conciencia de la IA?
Subestimar la conciencia de las máquinas
A medida que los avances en IA siguen superando los límites, los debates éticos en torno a esta tecnología empiezan a acalorarse.
Empresas como OpenAI ya están desarrollando inteligencia general artificial (AGI)con la intención de trascender las capacidades de las IA actuales, como ChatGPT, y construir sistemas flexibles y multimodales.
Si reconocemos que cualquier entidad capaz de sufrir conscientemente debe ser objeto de consideración moral -como hacemos con muchos animales-, corremos el riesgo de sufrir daños morales si pasamos por alto la posibilidad de sistemas de IA conscientes.
Además, podríamos subestimar su capacidad para hacernos daño. Imaginemos los riesgos que plantearía un sistema avanzado de IA consciente que se diera cuenta de que la humanidad la maltrata.
Sobreestimar la conciencia de las máquinas
En el otro lado del debate está el riesgo de atribuir una conciencia excesiva a los sistemas de IA.
Los humanos tendemos a antropomorfizar la IA, lo que lleva a muchos a atribuir erróneamente conciencia a la tecnología porque es excelente imitándonos.
Como dijo Oscar Wilde, "la imitación es la forma más sincera de adulación", y AI lo hace excepcionalmente bien.
El antropomorfismo se vuelve problemático a medida que los sistemas de IA desarrollan características similares a las humanas, como capacidades de lenguaje natural y expresiones faciales.
Muchos criticaron a Blake Lemoine, de Google, por dejarse "engañar" por las habilidades conversacionales de LaMDA similares a las humanas cuando, en realidad, estaba sintetizando texto de conversaciones humanas contenidas en sus datos de entrenamiento y no nada de origen consciente único.
Las necesidades emocionales pueden aumentar la propensión al antropomorfismo. Por ejemplo, las personas pueden buscar la interacción social y la validación emocional de los sistemas de IA, lo que puede sesgar su juicio sobre la conciencia de estas entidades.
El chatbot de inteligencia artificial Replika -como su nombre indica- está diseñado para reproducir las interacciones humanas y se vio envuelto en un plan de asesinato de un enfermo mental matar a la reina Isabel II, lo que condujo a su detención y encarcelamiento en un centro psiquiátrico.
Otras IA, como Claude de Anthropic y Pi de Inflection, están diseñadas para imitar la conversación humana y actuar como asistentes personales.
DeepMind también desarrollar un coach de vida diseñado para ofrecer asesoramiento personalizado directo a los usuarios, una idea que ha suscitado dudas sobre si los humanos quieren que la IA se entrometa en sus asuntos personales.
En medio de este debate, es crucial recordar que la tecnología sigue siendo joven.
Aunque los sistemas de IA actuales no son sólidamente conscientes, los próximos años nos acercarán sin duda cada vez más a la realización de sistemas artificiales conscientes que igualen o superen la capacidad cognitiva de los cerebros biológicos.