La batalla de los "padrinos de la IA": ¿es arriesgada o no?

2 de noviembre de 2023
Riesgos de la IA

La IA es arriesgada, ¿verdad? Eso es lo que nos han dicho a todos este último año. Pero no todo el mundo está de acuerdo, incluidos algunos investigadores de alto nivel. 

X ha ardido en discusiones sobre si la IA plantea verdaderos riesgos existenciales. No estamos hablando de desinformación o falsificaciones profundas -aunque estas ya son malas-, sino de riesgos a la altura de las catástrofes nucleares y las pandemias.

Este debate ha sido liderado por Yann LeCun, escéptico de los riesgos de la IA y jefe de IA de Meta, considerado uno de los llamados "padrinos de la IA" junto a Yoshua Bengio y Geoffrey Hinton. 

En la línea de fuego de LeCun están el CEO de OpenAI, Sam Altman, el CEO de DeepMind, Demis Hassabis, y el CEO de Anthropic, Dario Amode, a quienes LeCun acusó de "lobby corporativo masivo".

En concreto, a LeCun le preocupa que los jefes de las grandes tecnológicas estén intensificando la charla en torno al riesgo y el uso indebido de la IA para conseguir que los reguladores cierren el sector a su favor.

Las grandes tecnológicas tienen los medios necesarios para hacer frente a la regulación, mientras que las empresas más pequeñas y los desarrolladores de código abierto no". LeCun también pone en duda la visión a menudo pregonada de una "singularidad" de la IA en la que la tecnología se vuelve de repente más inteligente que los humanos, señalando así una nueva era de IA superinteligente. 

Otros, como Altman, afirman ahora que esperan que el desarrollo de la IA sea más granular y progresivo, en lugar de "despegar" de la noche a la mañana.

Según los argumentos de LeCun, las grandes tecnológicas pueden utilizar los riesgos de la IA en su beneficio, lo que les permitiría reforzar las estructuras de mercado y eliminar a la competencia. El verdadero riesgo, según LeCun, es que unos pocos desarrolladores de IA se adueñen de la industria y dicten su trayectoria. 

Subrayó la gravedad de la situación afirmando: "Si estos esfuerzos tienen éxito, el resultado sería una catástrofe porque un pequeño número de empresas controlará la IA". Esta afirmación refleja el amplio consenso existente en el mundo de la tecnología sobre el potencial transformador de la IA, equiparando su importancia a la del microchip o Internet.

Las declaraciones de LeCun respondían al célebre físico Max Tegmark, que había insinuado que LeCun no se tomaba suficientemente en serio los riesgos existenciales de la IA.

En un post público, Tegmark reconoció los esfuerzos de los líderes mundiales por reconocer los peligros potenciales de la IA, afirmando: "No se pueden refutar sólo con sarcasmo y grupos de presión corporativos".

En medio del aumento de la influencia de la IA, figuras como Altman y Hassabis han pasado a ocupar un lugar central en el discurso público sobre tecnología. Sin embargo, LeCun les critica por alimentar el miedo a la IA al tiempo que se benefician de ella.

En marzo, más de mil líderes tecnológicos, entre ellos Elon Musk, Altman y Hassabis, abogó por una pausa en el desarrollo de la IA, alegando importantes riesgos sociales y humanitarios.

LeCun, sin embargo, sostiene que estas dramáticas advertencias son una cortina de humo que desvía la atención de cuestiones inmediatas como explotación laboral y robo de datos.

LeCun pide que se vuelva a centrar el debate en el presente y el futuro inmediato del desarrollo de la IA. Expresó su preocupación por la posible desaparición de la comunidad de la IA de código abierto si el desarrollo de la IA queda confinado a entidades privadas con ánimo de lucro.

Para LeCun, es mucho lo que está en juego: "La alternativa, que inevitablemente ocurrirá si se regula la desaparición de la IA de código abierto, es que un pequeño número de empresas de la costa oeste de EE.UU. y China controlen la plataforma de IA y, por tanto, controlen toda la dieta digital de la gente", advirtió, instando a considerar las implicaciones para la democracia y la diversidad cultural.

Los partidarios de LeCun

Los argumentos de LeCun están bien respaldados en las redes sociales y suscitan el acuerdo de comentaristas y expertos del sector.

Por ejemplo, Andrew Ng, figura clave en el desarrollo de la IA y cofundador de Google Brain, también expresó su preocupación por la posibilidad de que las grandes empresas tecnológicas estén manipulando el discurso sobre la IA para hacerse con el dominio del mercado.


En una entrevista con The Australian Financial Review, Ng destacó una tendencia entre los gigantes tecnológicos a amplificar los temores a la IA, concretamente la idea de que podría llevar a la extinción humana. Al igual que LeCun y otros, sugiere que esta narrativa se está utilizando estratégicamente para impulsar una regulación más estricta de la IA, obstaculizando así las iniciativas de código abierto y los competidores más pequeños.

"Definitivamente, hay grandes empresas tecnológicas que preferirían no tener que intentar competir con el código abierto, así que están creando el miedo a que la IA lleve a la extinción humana", explicó Ng. "Ha sido un arma de los grupos de presión para defender una legislación que sería muy perjudicial para la comunidad de código abierto".

A principios de añoun memorándum filtrado de Google parece admitir que las grandes tecnológicas están perdiendo terreno frente al código abierto. 

La nota decía: "Los modelos de código abierto son más rápidos, más personalizables, más privados y, libra por libra, más capaces. Hacen cosas con parámetros de $100 y 13B que a nosotros nos cuesta hacer con $10M y 540B. Y lo hacen en semanas, no en meses".

La IA de código abierto es rápida, no monolítica, privada y, sobre todo, barata. La gran tecnología ya está luchando por monetizar la IAAsí que todo tiene sentido sobre el papel: regular la industria de la IA para ayudar a los titanes a prevalecer. 

Distracciones de las amenazas inmediatas

Hay otra dimensión en este debate que va más allá del dinero.

Muchos han reiterado que los riesgos actuales de la IA, como las falsificaciones profundas extremadamente sofisticadas y la desinformación, ya son suficientes para justificar un debate prolongado y una actuación rápida. 

Aidan Gomez, destacado investigador en IA y CEO de Cohere, también destacó el riesgo de centrarse demasiado en escenarios catastrofistas. 

En vísperas del Cumbre sobre seguridad de la IAGómez señaló que las amenazas inmediatas, como la desinformación y la erosión de la confianza social, están siendo eclipsadas por los debates sobre los riesgos existenciales a largo plazo.

"Creo que en términos de riesgo existencial y política pública, no es una conversación productiva", declaró Gómez, haciendo hincapié en la necesidad de priorizar los riesgos inmediatos.

"En cuanto a la política pública y donde deberíamos tener el enfoque del sector público - o tratar de mitigar el riesgo para la población civil - creo que forma una distracción, lejos de los riesgos que son mucho más tangibles e inmediatos."

Gómez destaca la omnipresente influencia de la IA en productos utilizados por miles de millones de personas, haciendo hincapié en la urgente necesidad de abordar los riesgos que afectan activamente al público. "Esta tecnología ya está en productos de miles de millones de usuarios, como en Google y otros. Eso presenta una serie de nuevos riesgos que hay que debatir, ninguno de los cuales es existencial, ninguno de los cuales es un escenario catastrófico", explicó. 

Señala la desinformación como una de las principales preocupaciones, dada la capacidad de los modelos de IA para crear medios "prácticamente indistinguibles de textos, imágenes o medios creados por humanos".

La desinformación es, sin duda, el enemigo público número uno en lo que respecta a los riesgos de la IA, dado que ya hemos observado ejemplos de falsificaciones profundas que se han utilizado con éxito en estafas.

Falsificaciones profundas desplegadas antes del tiempo de poste en las elecciones eslovacas mostraron cómo pueden afectar tangiblemente a la democracia. 

Yoshua Bengio, Geoffrey Hinton y Elon Musk se unen al debate

El "padrino de la IA", Yoshua Bengio, junto con una asamblea de más de 200 líderes tecnológicos e investigadores, respaldó una carta abierta en la que se destaca la necesidad crítica de una acción inmediata y sustancial.

Bengio encabeza ahora un informe internacional presentado en la Cumbre de Seguridad de la IA del Reino Unido. Está muy convencido de los riesgos de la IA, al igual que Geoffrey Hinton, lo que significa que 2/3 de los "padrinos de la IA" están preocupados en algún nivel. 


En su página web, Bengio escribióRecientemente he firmado una carta abierta en la que pido que se frene el desarrollo de sistemas gigantes de inteligencia artificial más potentes que el GPT-4, es decir, los que actualmente superan la prueba de Turing y, por tanto, pueden hacer creer a un ser humano que está conversando con un semejante y no con una máquina".

Geoffrey Hinton, del triunvirato de padrinos de la IA, había dejado Google para "hablar claro" de sus temores sobre la IA. Llegó a decir que se arrepentía de su trabajo por el mal uso que podía hacerse de la IA, afirmando en una entrevista: "Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho otro".

Hinton, al igual que Bengio, apoya la opinión de que la IA plantea graves riesgos a nivel de extinción. También duda de que los modelos de código abierto puedan apoyar los esfuerzos de seguridad. 

Recientemente destacó que su decisión de abandonar Google estaba en desacuerdo con la postura crítica de LeCun et al., declarando en X: "Andrew Ng afirma que la idea de que la IA podría extinguirnos es una conspiración de las grandes tecnológicas. Un dato que no encaja en esta teoría de la conspiración es que dejé Google para poder hablar libremente sobre la amenaza existencial".

Hinton, Bengio y otros destacados investigadores de la IA, entre ellos el influyente informático chino Andrew Yao, han publicado recientemente respaldó un documento describir los riesgos de la IA.

En palabras de Hinton: "Las empresas planean entrenar modelos con 100 veces más capacidad de cálculo que los actuales, en un plazo de 18 meses. Nadie sabe lo potentes que serán. Y esencialmente no hay ninguna regulación sobre lo que podrán hacer con estos modelos".

Este debate divaga y seguirá divagando.

Un usuario de X comentó lo siguiente:


LeCun tiene otro antagonista en Elon Musk, que rara vez está ausente de un debate X de alto nivel, especialmente de uno que se sitúa firmemente en su terreno (por no mencionar su plataforma).

Musk tiene un historial bien documentado de expresar su preocupación por la IA, pero su postura se ha vuelto muy impredecible.

En los últimos tiempos, Musk ha tachado sistemáticamente la IA de amenaza existencial potencial para la humanidad, afirmando que desarrollar IA compleja era como "invocar al demonio". En la Cumbre sobre Seguridad de la IA, sin embargo, dijo que pensaba que la IA produciría beneficios netos positivos. 

En los últimos meses, Musk ha criticado a OpenAI, destacando una desviación de la misión original de la organización y expresando su preocupación por su dirección de "código cerrado", muy influenciada por Microsoft. 

Tanto Musk como LeCun coinciden ampliamente en sus críticas a la IA de código cerrado, lo que demuestra que defender los riesgos de la IA no siempre significa denunciar el código abierto.

En cuanto al código abierto, veamos lo que Musk decide hacer con sus productos. La empresa de IA xAI lanza.

El jefe de Google DeepMind responde al "alarmismo" de LeCun

El director de Google DeepMind, Demis Hassabis, respondió a las alegaciones de LeCun, acusando a la empresa de participar en un amplio cabildeo corporativo para dominar la industria de la IA. 

En una entrevista concedida a CNBC, Hassabis subrayó que la participación de DeepMind en los debates sobre IA no es un intento de lograr la "captura normativa".

En respuesta a estas afirmaciones, Hassabis declaró: "Estoy bastante en desacuerdo con la mayoría de esos comentarios de Yann". 

Destacó tres categorías principales de riesgos asociados a la IA, haciendo hincapié en la importancia de abordar problemas inmediatos como la desinformación, las falsificaciones profundas y los prejuicios, sin dejar de considerar el posible uso indebido de la IA por parte de agentes malintencionados y los riesgos a largo plazo asociados a la inteligencia general artificial (AGI). 

Abogó por iniciar conversaciones sobre la regulación de la IA superinteligente cuanto antes para evitar consecuencias nefastas.

Destacando la naturaleza global de la tecnología de IA, Hassabis subrayó la necesidad de cooperación internacional, incluido el compromiso con China, para establecer normas de desarrollo y regulación responsables. 

Tanto él como James Manyika, Vicepresidente Senior de Investigación, Tecnología y Sociedad de Google, expresaron su deseo de alcanzar un consenso mundial sobre la IA. Hassabis asistió a la Cumbre sobre Seguridad de la IA celebrada en el Reino Unido, donde se sumó a la opinión de los líderes mundiales de hacer hincapié en la seguridad y la supervisión de la IA. 

A pesar de las continuas tensiones tecnológicas entre EE.UU. y China y de la reticencia de los gigantes tecnológicos estadounidenses a realizar labores comerciales en China, Hassabis hizo hincapié en la necesidad de la comunicación, afirmando: "Creo que en este momento tenemos que hablar con todo el mundo".

¿Hay un término medio?

Los debates en torno a los riesgos potenciales de la IA y las respuestas normativas necesarias están llegando a un punto crítico.

En las últimas semanas se han multiplicado las "conversaciones oficiales" sobre la IA, pero la regulación sigue en trámite.

La normativa estadounidense y la Ley de Inteligencia Artificial de la UE sentarán las primeras bases sólidas para la gobernanza de la IA. 

LeCun esgrime un argumento convincente en torno a la monetización de la IA frente a la competencia de código abierto. Desde el memorando filtrado de Google hasta los riesgos existenciales que plantean los jefes de las grandes tecnológicas en los principales medios de comunicación, él y sus partidarios tienen munición de sobra. 

Sin embargo, la falta de consenso va más allá de las cabezas de los desarrolladores de IA con ánimo de lucro de Microsoft, DeepMind, Anthropic, etcétera.

Bengio y Hinton son mayoritariamente no afiliados, y el difunto profesor Stephen Hawking, por ejemplo, declaró célebremente que "podría significar el fin de la raza humana" y convertirse en el "peor acontecimiento de la historia de nuestra civilización". 

Los investigadores han demostrado la capacidad de los sistemas de IA para desarrollar de forma autónoma objetivos emergentesque podrían tener consecuencias catastróficas si no se gestionan adecuadamente. Otros experimentos han demostrado que los sistemas de IA pueden buscar recursos activamente, acumular energía y tomar medidas para evitar ser apagados. 

Hay pruebas sólidas de los daños relacionados con la IA, pero ¿son proporcionales a las alarmas que hacen sonar los jefes de las grandes tecnológicas?

Y, lo que quizá sea más importante, ¿se puede confiar realmente en que manejen el sector de forma ética para todos, independientemente de la presencia o ausencia de riesgo?

Quizá debamos considerar las acciones de las grandes tecnológicas como la apuesta definitiva.

Lo más probable es que la IA sea arriesgada, pero unas pocas empresas selectas quieren asumir ese riesgo, llevarla al límite y darle la forma que consideren oportuna, para bien o para mal.

Las grandes tecnológicas podrían cargar el juego para que la casa siempre gane mientras siga en pie. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×
 
 

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI


 

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.



 
 

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales