Tres debates a los que se enfrenta la industria de la IA: Inteligencia, progreso y seguridad

22 de marzo de 2024

El famoso dicho: "Cuanto más sabemos, más desconocemos", se aplica a la IA.

Cuanto más aprendemos sobre la IA, menos sabemos con certeza.

Los expertos y los líderes del sector se encuentran a menudo en agrias discusiones sobre la situación actual de la IA y hacia dónde se dirige. No logran ponerse de acuerdo sobre conceptos aparentemente elementales como la inteligencia de las máquinas, la conciencia y la seguridad.

¿Las máquinas superarán algún día el intelecto de sus creadores humanos? ¿Se está acelerando el avance de la IA hacia una singularidad tecnológica, o estamos en la cúspide de un invierno de la IA?

Y quizás lo más importante, ¿cómo podemos garantizar que el desarrollo de la IA siga siendo seguro y beneficioso cuando los expertos no se ponen de acuerdo sobre lo que nos depara el futuro?

La IA está inmersa en una niebla de incertidumbre. Lo mejor que podemos hacer es explorar perspectivas y llegar a puntos de vista informados pero fluidos para un sector en constante cambio.

Primer debate: La inteligencia artificial

Con cada nueva generación de modelos generativos de IA surge un renovado debate sobre la inteligencia de las máquinas.

Elon Musk avivó recientemente el debate sobre la inteligencia de la IA cuando afirmó: "La IA será probablemente más inteligente que cualquier ser humano el año que viene. En 2029, la IA será probablemente más inteligente que todos los humanos juntos".

Musk fue inmediatamente rebatido por el científico jefe de IA de Meta y eminente investigador de IA, Yann LeCun, quien afirmó: "No. Si fuera así, tendríamos sistemas de IA que podrían aprender por sí solos a conducir un coche en 20 horas de práctica, como cualquier chaval de 17 años. Pero aún no tenemos una autoconducción totalmente autónoma y fiable, a pesar de que (ustedes) tienen millones de horas de datos de entrenamiento *etiquetados*".

Esta conversación no indica más que un microcosmos de un vacío ambiguo en la opinión de los expertos y líderes de la IA.

Es una conversación que conduce a una espiral interminable de interpretaciones con escaso consensocomo demuestran los puntos de vista radicalmente opuestos de tecnólogos influyentes durante el último año (información de Mejorar las noticias):

  • Geoffrey Hinton: La "inteligencia digital" podría superarnos en un plazo de "5 a 20 años".
  • Yann LeCun: Es más probable que la sociedad consiga una IA "a nivel de gato" o "a nivel de perro" años antes que una IA a nivel humano.
  • Demis Hassabis: Puede que consigamos "algo parecido a AGI o AGI-like en la próxima década".
  • Gary Marcus: "[A]l final llegaremos a la AGI... y muy posiblemente antes de que acabe este siglo".
  • Geoffrey Hinton: "Las IA actuales como GPT-4 "eclipsan a una persona" en conocimientos generales y pronto podrían hacerlo también en razonamiento.
  • Geoffrey Hinton: La IA está "muy cerca de serlo ahora" y será "mucho más inteligente que nosotros en el futuro".
  • Elon Musk: "Tendremos, por primera vez, algo que es más inteligente que el humano más inteligente".
  • Elon Musk: "Me sorprendería que no tuviéramos AGI para [2029]".
  • Sam Altman: "[P]odremos llegar al AGI real en la próxima década".
  • Yoshua Bengio: Las "IA sobrehumanas" se lograrán "entre unos años y un par de décadas".
  • Dario Amodei: La IA "a nivel humano" podría producirse en "dos o tres años".
  • Sam Altman: La IA podría superar el "nivel de experto" en la mayoría de los campos dentro de una década.
  • Gary Marcus: "No [creo] que estemos tan cerca de máquinas más inteligentes que nosotros".

En el debate sobre la inteligencia de las máquinas, ninguna de las partes está inequívocamente en lo cierto o en lo erróneo. Depende de la interpretación subjetiva que cada uno haga de la inteligencia y de cómo se comparen los sistemas de IA con esa definición.

Los pesimistas pueden señalar los riesgos potenciales y las consecuencias no deseadas de la IA, haciendo hincapié en la necesidad de actuar con cautela. Argumentan que, a medida que los sistemas de IA se vuelven más autónomos y potentes, pueden desarrollar objetivos y comportamientos desalineados con los valores humanos, lo que llevaría a resultados catastróficos.

Por el contrario, los optimistas pueden centrarse en el potencial transformador de la IA, imaginando un futuro en el que las máquinas trabajen junto a los humanos para resolver problemas complejos e impulsar la innovación. Pueden restar importancia a los riesgos, argumentando que las preocupaciones sobre la IA superinteligente son en gran medida hipotéticas y que los beneficios superan a los riesgos.

El quid de la cuestión radica en la dificultad de definir y cuantificar la inteligencia, sobre todo cuando se comparan entidades tan dispares como los seres humanos y las máquinas.

Por ejemplo, un La mosca tiene circuitos neuronales avanzados y puede eludir con éxito nuestros intentos de aplastarla o atraparla, superándonos en este estrecho ámbito. Este tipo de comparaciones son potencialmente ilimitadas.

Elige tus ejemplos de inteligencia, y todos pueden tener razón o no.

Segundo debate: ¿se acelera o se ralentiza la IA?

¿Se acelerarán los avances de la IA o se estancarán y ralentizarán?

Algunos afirman que nos encontramos en medio de una revolución de la IA, con avances vertiginosos. Otros sostienen que el progreso se ha estancado y que el campo se enfrenta a retos trascendentales que podrían frenar la innovación en los próximos años.

La IA generativa es la culminación de décadas de investigación y miles de millones de financiación. Cuando ChatGPT aterrizó en 2022, la tecnología ya había alcanzado un alto nivel en entornos de investigación, poniendo el listón muy alto y lanzando a la sociedad a por todas.

El revuelo resultante también suscitó una inmensa financiación para nuevas empresas de IA, desde Anthropic a Inflection y desde Stability AI a MidJourney.

Esto, combinado con los enormes esfuerzos internos de los veteranos de Silicon Valley Meta, Google, Amazon, Nvidia y Microsoft, dio lugar a una rápida proliferación de herramientas de IA. El GPT-3 se transformó rápidamente en el GPT-4. Mientras tanto, competidores como LLM Claude 3 Opus, Grok de xAI y Mistraly los modelos de código abierto de Meta también han dejado su huella.

Algunos expertos y tecnólogos, como Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis y Elon Musk, opinan que la aceleración de la IA no ha hecho más que empezar.

Musk dijo que la IA generativa era como "despertar al demonio", mientras que Altman dijo que el control mental de la IA era inminente (lo que Musk ha evidenciado con avances recientes en Neuralink; véase más abajo cómo un hombre jugó una partida de ajedrez sólo con el pensamiento).

Por otro lado, expertos como Gary Marcus y Yann LeCun opinan que nos estamos topando con paredes de ladrillo, y que la IA generativa se enfrenta a un periodo de introspección o "invierno".

Esto sería el resultado de obstáculos prácticos, como el aumento de los costes energéticos, las limitaciones de la informática de fuerza bruta, la regulación y la escasez de material.

La IA generativa es cara de desarrollar y mantener, y la monetización no es sencilla. Las empresas tecnológicas deben encontrar formas de mantener la inercia para que el dinero siga fluyendo hacia el sector.

Tercer debate: La seguridad de la IA

Las conversaciones sobre la inteligencia y el progreso de la IA también tienen implicaciones para su seguridad. Si no podemos ponernos de acuerdo sobre qué constituye la inteligencia o cómo medirla, ¿cómo podemos garantizar que los sistemas de IA se diseñen y desplieguen de forma segura?

La ausencia de una comprensión compartida de la inteligencia dificulta el establecimiento de medidas de seguridad y directrices éticas adecuadas para el desarrollo de la IA.

Subestimar la inteligencia de la IA es subestimar la necesidad de controles de seguridad y regulación de la IA.

Por el contrario, sobrestimar o exagerar las capacidades de la IA distorsiona las percepciones y entraña el riesgo de un exceso de regulación. Esto podría acaparar el poder de las grandes empresas tecnológicas, que han demostrado su influencia a la hora de presionar y manipular la legislación. Y cuando cometen un error, pueden pagar las multas.

El año pasado, prolongados X debates entre Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk y otras muchas figuras destacadas de la comunidad de la IA puso de manifiesto las profundas divisiones existentes en la seguridad de la IA. Las grandes tecnológicas han trabajado duro para autorregularse, creando "directrices voluntarias" de dudosa eficacia.

Los críticos sostienen además que la regulación permite a las grandes tecnológicas reforzar las estructuras de mercadoLa industria se ha convertido en una de las más dinámicas del mundo, se ha deshecho de los perturbadores y ha establecido las condiciones de juego de la industria a su gusto.

En ese lado del debate, LeCun sostiene que los riesgos existenciales de la IA se han exagerado y están siendo utilizados como cortina de humo por las grandes empresas tecnológicas para presionar a favor de normativas que ahogarían la competencia y consolidarían el control.

LeCun y sus partidarios también señalan que los riesgos inmediatos de la IA, como la desinformación, las falsificaciones profundas y la parcialidad, ya están perjudicando a las personas y requieren atención urgente.

Por otra parte, Hinton, Bengio, Hassabis y Musk han dado la voz de alarma sobre los posibles riesgos existenciales de la IA.

Bengio, LeCun y Hinton, a menudo conocidos como los "padrinos de la IA" por desarrollar redes neuronales, aprendizaje profundo y otras técnicas de IA a lo largo de los años 90 y principios de los 2000, siguen siendo influyentes en la actualidad. Hinton y Bengio, cuyos puntos de vista coinciden en general, participaron en una reunión reciente entre investigadores estadounidenses y chinos en la Diálogo internacional sobre la seguridad de la IA en Pekín.

La reunión culminó en un comunicado: "En plena Guerra Fría, la coordinación científica y gubernamental internacional ayudó a evitar la catástrofe termonuclear. La humanidad necesita de nuevo coordinarse para evitar una catástrofe que podría surgir de una tecnología sin precedentes."

Hay que decir que Bengio y Hinton no están alineados financieramente con las grandes empresas tecnológicas y no tienen motivos para arriesgarse demasiado con la IA.

El propio Hinton planteó esta cuestión en un rifirrafe X con LeCun y el ex cofundador de Google Brain Andrew Ng, destacando que abandonó Google para hablar libremente de los riesgos de la IA.

De hecho, muchos grandes científicos han cuestionado la seguridad de la IA a lo largo de los años, incluido el fallecido Stephen Hawking, que consideraba la tecnología como un riesgo existencial.

Esta mezcla de intercambios polémicos deja poco espacio para que la gente ocupe un punto intermedio, lo que alimenta la imagen de la IA generativa como tecnología polarizadora.

La regulación de la IA, por su parte, ha convertirse en una cuestión geopolíticaEstados Unidos y China colaboran tímidamente en materia de seguridad de la IA a pesar de la escalada de tensiones en otros departamentos.

Así pues, del mismo modo que los expertos discrepan sobre cuándo y cómo la IA superará las capacidades humanas, también difieren en sus evaluaciones de los riesgos y retos que plantea el desarrollo de sistemas de IA seguros y beneficiosos.

Los debates en torno a la inteligencia artificial no son sólo de naturaleza filosófica o de principios - también son una cuestión de gobernanza.

Cuando los expertos discrepan vehementemente incluso sobre los elementos básicos de la inteligencia y la seguridad de la IA, la regulación no puede esperar servir a los intereses de la gente.

La creación de un consenso exigirá que los expertos, los desarrolladores de IA, los gobiernos y la sociedad en general se den cuenta de lo difícil que es.

Sin embargo, además de muchos otros retos, dirigir la IA hacia el futuro exigirá que algunos líderes y expertos en tecnología admitan que estaban equivocados. Y eso no va a ser fácil.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales