2.778 investigadores opinan sobre los riesgos de la IA: ¿qué aprendemos de sus respuestas?

4 de enero de 2024

Riesgos de la IA

Una encuesta a gran escala en la que participaron 2.700 investigadores de IA reveló opiniones divididas sobre los riesgos de la IA.

En encuesta realizada por AI Impacts, la mayor de este tipo, contó con la participación de profesionales que han publicado investigaciones en seis de las principales conferencias sobre IA.

Se pidió a los participantes que opinaran sobre los futuros hitos de la IA y sus implicaciones sociales. 

En particular, casi 58% de estos investigadores creen que existe una probabilidad de 5% de extinción humana o de resultados igualmente terribles debido a los avances de la IA.

Otras conclusiones sugieren que la IA tiene una probabilidad 50% o superior de dominar tareas que van desde componer música de carta hasta desarrollar un sitio web completo de procesamiento de pagos en la próxima década. 

Se espera que las tareas más complejas, como la instalación eléctrica o la resolución de problemas matemáticos, lleven más tiempo. DeepMind ha demostrado recientemente El rendimiento superior de la IA a la hora de abordar los problemas de conjunto de tapas y empaquetado de recipientes. 

Los investigadores también estiman en 50% la posibilidad de que la IA supere el rendimiento humano en todas las tareas para 2047 y la automatización de todos los trabajos humanos para 2116. Esto depende de que la ciencia "no se vea perturbada". 

Los resultados son ciertamente dispares, pero es justo decir que no se considera que los riesgos de la IA hayan alcanzado aún una masa crítica. 

Katja Grace, del Instituto de Investigación de Inteligencia Artificial de California enunciado del estudio"Es una señal importante que la mayoría de los investigadores de IA no consideren tan inverosímil que la IA avanzada destruya a la humanidad".

He aquí una lista de las principales estadísticas y conclusiones:

  • Probabilidad de que la IA alcance hitos en 2028: Hay una probabilidad 50% de que los sistemas de IA sean capaces de construir un sitio de procesamiento de pagos, crear una canción indistinguible de la de un músico popular y descargar y poner a punto un gran modelo lingüístico (LLM).
  • Predicciones de rendimiento de la IA a nivel humano: El estudio estima en 10% la probabilidad de que en 2027 y en 50% la de que en 2047 las máquinas sin ayuda superen a los humanos en todas las tareas. Esta previsión para 2047 es 13 años anterior a la realizada en 2022.

  • Automatización de las ocupaciones humanas: Existe una probabilidad de 10% de que todas las ocupaciones humanas sean totalmente automatizables en 2037 y una probabilidad de 50% en 2116, adelantándose a la predicción de 2164 realizada en 2022.
  • Perspectivas sobre el valor a largo plazo de la IA68,3% de los encuestados creen que los buenos resultados de una "IA sobrehumana son más probables que los malos, pero 48% de estos optimistas siguen viendo al menos una probabilidad de 5% de resultados extremadamente malos, como la extinción humana. Mientras tanto, 59% de los pesimistas ven una probabilidad de 5% o más de resultados extremadamente buenos.
  • Preocupación por los escenarios impulsados por la IA: Más de 70% de los investigadores expresan su preocupación por cuestiones como las falsificaciones profundas, la manipulación de la opinión pública y las armas de ingeniería. Las falsificaciones profundas causaron la mayor alarma, con 86% de investigadores que expresaron su preocupación. 
  • Estimaciones de probabilidad de los riesgos de IA: Entre el 37,8% y el 51,4% de los encuestados creen que existe al menos una probabilidad 10% de que la IA avanzada pueda conducir a resultados tan graves como la extinción humana.

  • Estimaciones de probabilidad para HLMI (High-Level Machine Intelligence): La previsión agregada de 2023 predice una probabilidad de 50% de alcanzar el HLMI en 2047, lo que supone un cambio significativo respecto a la predicción de 2060 realizada en 2022.
  • Probabilidad de automatización total del trabajo (FAOL): La previsión para 2023 estima una probabilidad de 50% de FAOL para 2116, 48 años antes que una predicción similar realizada en 2022.
  • Investigación sobre la seguridad de la IA: Alrededor de 70% de los participantes en la encuesta creen que la investigación sobre la seguridad de la IA debería tener más prioridad de la que tiene actualmente.

Los riesgos inmediatos eclipsan a los de largo plazo

Más allá de los riesgos existenciales, la encuesta pone de relieve que una mayoría sustancial de investigadores tiene preocupaciones inmediatas sobre la IA.

Más de 70% expresan una gran preocupación por cuestiones relacionadas con la IA, como las falsificaciones profundas, la manipulación de la opinión pública, el armamento artificial, el control autoritario y la creciente desigualdad económica. 

Émile Torres, de la Universidad Case Western Reserve de Ohio, advierte específicamente sobre el papel de la IA en la difusión de desinformación sobre temas críticos y su impacto en la gobernanza democrática, afirmando: "Ya tenemos la tecnología, aquí y ahora, que podría socavar gravemente la democracia [estadounidense]". 

Las campañas políticas lanzadas por políticos estadounidenses y canadienses ya han recurrido a la IA para hilar imágenes, y AI robocalls para captar votantes. 

Otra importante incidente fueron las recientes elecciones en Eslovaquia, donde, jólo 48 horas antes de los comicios, apareció en las redes sociales un clip de audio falsificado en el que supuestamente aparecían figuras políticas clave discutiendo tácticas de compra de votos.

Provocó una confusión generalizada durante un periodo crítico de silencio preelectoral. El momento de su publicación hizo casi imposible contrarrestar sus efectos con prontitud. 

Más recientemente, las campañas de desprestigio generadas por la IA tuvieron como objetivo la reñidas elecciones en Bangladesh, con contenidos destinados a desacreditar al partido contrario declarando su apoyo al bombardeo de Gaza, un tema delicado en un país de mayoría musulmana. 

Se debaten los plazos del riesgo de IA

Las comparaciones entre las repercusiones a corto y largo plazo de la IA fueron fuente de encarnizados debates cuando el Centro para la Seguridad de la IA (CAIS) emitió una dramática declaración en 2023 comparando los riesgos de la IA con las pandemias y la guerra nuclear. 

Los medios de comunicación se hacen eco de las peores predicciones sobre el desarrollo de la inteligencia artificial, desde robots asesinos hasta drones fuera de control en el campo de batalla. 

Hasta ahora, es la forma en que los humanos utilizan la IA lo que plantea riesgos -un caso de "la IA no mata a la gente, los humanos sí"- y la preocupación por los riesgos existenciales a veces se considera que eclipsa lo que está ocurriendo ahora mismo.

Las falsificaciones profundas, en particular, han demostrado tener repercusiones tangibles en la sociedad humana.

AI Explosión del Pentágono
Esta falsa imagen generada por IA de una explosión en el Pentágono temporalmente impactó en los mercados financieros a principios de 2023. Fuente: X.

Yann LeCun, figura destacada en el campo de la IA, sugiere que las grandes empresas tecnológicas podrían exagerar estos riesgos para influir en las acciones reguladoras a su favor. 

Los temores, a menudo promovidos por las grandes tecnológicas, podrían ser una estratagema estratégica para fomentar normativas estrictas, que podrían perjudicar a las entidades más pequeñas y a las iniciativas de código abierto. 

Esto descubre un peligro más sutil: el posible monopolio de la IA por parte de unas pocas grandes empresas, lo que podría ahogar la innovación y la diversidad en la IA.

Esto deja a los principales actores del sector, como Google y OpenAI, la tarea de impulsar la industria en su propia dirección, siempre que puedan satisfacer las exigencias de cumplimiento.

Riesgos existenciales: ¿qué dicen las pruebas?

El diálogo sobre los riesgos oscila a menudo entre dos extremos: el escepticismo y el alarmismo. Entonces, ¿qué pruebas reales hay de que la IA pueda matarnos o destruir el planeta?

La idea del armamentismo de la IA es quizá el ejemplo más inminentemente imaginable. En este caso, los sistemas de IA podrían matar a seres humanos con una supervisión limitada, o los actores de amenazas podrían utilizar la tecnología para desarrollar armas cataclísmicamente eficaces. 

No cabe duda de que los drones ya son capaces de destruir objetivos con una intervención humana mínima, como ha ocurrido en el Ya hay conflictos entre Israel y Palestina y entre Rusia y Ucrania.

El avión no tripulado XQ-58A Valkyrie se convirtió en totalmente automatizada en 2023. Fuente: Wikimedia Commons.

Un factor más sutil del riesgo existencial de la IA es el debilitamiento. Lo que preocupa no es sólo la pérdida de puestos de trabajo en favor de los robots, sino la pérdida de capacidades humanas esenciales y de creatividad. Una analogía habitual es la película WALL-E, en la que seres humanos parecidos a manchas tienen robots que cumplen sus órdenes a costa de la propia Tierra.

Hay algunas pruebas que los LLM como ChatGPT están erosionando el pensamiento crítico de los estudiantes, aunque es demasiado pronto para saberlo con certeza.

Las instituciones educativas están dispuestas a aprovechar las ventajas de la IA sin acabar con el mundo académico dirigido por humanos, y varios centros de alto nivel apoyan condicionalmente el uso de esta tecnología por parte de los estudiantes.

WALL-E AI
WALL-E representa un ejemplo popular de "debilitamiento" relacionado con la IA o la tecnología.

Otro riesgo razonablemente bien documentado es el de que la IA desarrolle objetivos emergentes, tal y como destaca investigación de la Universidad de Cambridge y DeepMind, lo que podría acarrear consecuencias imprevistas y potencialmente perjudiciales para la sociedad humana.

Los objetivos emergentes podrían hacer que las IA altamente inteligentes establecieran sus propios objetivos impredecibles, posiblemente incluso escapando de su arquitectura para "infectar" otros sistemas. 

En última instancia, el potencial de la IA para una extinción dramática y violenta es altamente especulativo, y hay pocos ejemplos o pruebas de que esto pueda ocurrir pronto. Sin embargo, cada vez hay más pruebas experimentales sobre los objetivos emergentes y otros posibles métodos de daño infligido por las IA autónomas.

Por ahora, tenemos muchos riesgos inmediatos que afrontar, y no olvidemos que estos retos se desarrollarán en paralelo al cambio climático, la pérdida de hábitats, las crisis demográficas y otros riesgos a nivel macro.

Aunque hay entusiasmo por los posibles logros de la IA, también hay una preocupación palpable por sus riesgos inmediatos y sus implicaciones a largo plazo. 

Esta última encuesta sirve de recordatorio de que el discurso sobre la IA no debe sesgarse hacia riesgos existenciales lejanos a expensas de abordar los retos inmediatos y los dilemas éticos que plantea esta tecnología transformadora. 

A medida que avanza la IA, encontrar un equilibrio en este debate resulta crucial para guiar su desarrollo hacia resultados beneficiosos y seguros para la humanidad.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales