Navegar por el laberinto de los riesgos de la IA: un análisis

13 de junio de 2023
Riesgo de IA

La narrativa en torno a los riesgos de la IA se ha vuelto cada vez más unipolar, con líderes tecnológicos y expertos de todos los rincones presionando a favor de la regulación. Hasta qué punto son creíbles las pruebas que documentan los riesgos de la IA? 

Los riesgos de la IA apelan a los sentidos. Hay algo profundamente intuitivo en temer a los robots que podrían engañarnos, dominarnos o convertirnos en una mercancía secundaria a su propia existencia.

Los debates en torno a los riesgos de la IA se intensificaron tras el ta organización sin ánimo de lucro Centro para la Seguridad de la IA (CAIS) publicó un declaración firmado por más de 350 personas notables, incluidos los directores ejecutivos de OpenAI, Anthropic y DeepMind, numerosos académicos, figuras públicas e incluso ex políticos. 

El título de la declaración estaba destinado a los titulares: "Mitigar el riesgo de extinción por IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear."

Rescatar una señal significativa de este ruidoso debate es cada vez más difícil. Los detractores de la IA tienen toda la munición que necesitan para argumentar en su contra, mientras que los partidarios o indecisos tienen todo lo que necesitan para denunciar las narrativas contra la IA como exageradas.

Y también hay una trama secundaria. Las grandes tecnológicas podrían estar presionando para que la regulación cercar la industria de la IA de la comunidad de código abierto. Microsoft invirtió en OpenAI, Google invirtió en Anthropic: el siguiente paso podría ser aumentar la barrera de entrada y estrangular la innovación de código abierto.

En lugar de que la IA suponga un riesgo existencial para la humanidad, puede que sea la IA de código abierto la que suponga un riesgo existencial para las grandes tecnológicas. La solución es la misma: controlarla ya.

Demasiado pronto para sacar las cartas de la mesa

La IA acaba de aparecer en la conciencia pública, por lo que prácticamente todas las perspectivas sobre riesgos y regulación siguen siendo relevantes. La declaración del CAIS puede al menos servir de valioso punto de referencia para orientar un debate basado en pruebas.

Dr. Óscar Méndez Maldonado, profesor de Robótica e Inteligencia Artificial en la Universidad de Surrey, dijoEl documento firmado por expertos en IA es mucho más matizado de lo que los titulares actuales quieren hacer creer. "La IA podría causar la extinción" evoca inmediatamente una toma del poder por parte de la IA a lo Terminator. El documento es mucho más realista que eso".

Como subraya Maldonado, la verdadera esencia de la declaración de riesgos de AI se publica en otra página de su sitio web - Riesgo de IA - y ha habido muy poca discusión en torno a los puntos planteados allí. Comprender la credibilidad de los riesgos de la IA es fundamental para informar los debates en torno a ellos.

¿Qué pruebas ha recopilado el CAIS para corroborar su mensaje? ¿Parecen creíbles los riesgos que a menudo se atribuyen a la IA? 

Riesgo 1: Armamentismo de la IA

El armamentismo de la IA es una perspectiva escalofriante, por lo que quizá no sorprenda que ocupe el primer puesto entre los 8 riesgos del CAIS. 

El CAIS sostiene que la IA puede convertirse en un arma en los ciberataques, como han demostrado los investigadores del Centro de Seguridad y Tecnologías Emergentes, que resumen de los usos del aprendizaje automático (AM) para atacar los sistemas informáticos. Eric Schmidt, ex CEO de Google también llamó la atención al potencial de la IA para localizar exploits de día cero, que proporcionan a los piratas informáticos un medio para entrar en los sistemas a través de sus puntos más débiles. 

En otro orden de cosas, Michael Klare, que asesora sobre control de armamento, habla de la automatización de los sistemas de mando y control nuclearesque también pueden ser vulnerables a la IA. Según él, "estos sistemas también son propensos a fallos de funcionamiento inexplicables y pueden ser engañados, o "suplantados", por profesionales expertos. Además, por mucho que se invierta en ciberseguridad, los sistemas NC3 siempre serán vulnerables a la piratería informática por parte de adversarios sofisticados."

Otro ejemplo de posible armamentismo es el descubrimiento automatizado de armas biológicas. La IA ya ha conseguido descubrir compuestos terapéuticospor lo que las capacidades ya están ahí. 

Las IA podrían incluso realizar pruebas de armamento de forma autónoma con una mínima orientación humana. Por ejemplo, un equipo de investigación de la Universidad de Pittsburgh demostró que sofisticadas Los agentes de IA podrían realizar sus propios experimentos científicos autónomos.

Riesgo 2: Desinformación y fraude

El potencial de la IA para copiar e imitar a los humanos ya está causando trastornos, y ahora hemos sido testigos de varios casos de fraude relacionados con falsificaciones profundas. Informes de China indican que el fraude relacionado con la IA está muy extendido. 

Un caso reciente fue el de una mujer de Arizona que descolgó el teléfono y se encontró con su hija sollozando, o eso creía ella. "La voz sonaba igual que la de Brie, la inflexión, todo". dijo a CNN. El estafador exigió un rescate de $1 millones. 

Otras tácticas incluyen el uso de IA generativa para la "sextorsión" y la pornografía vengativa, en las que los actores de amenazas utilizan imágenes generadas por IA para pedir rescates por contenidos explícitos falsos, que el El FBI advirtió a principios de junio. Estas técnicas son cada vez más sofisticadas y fáciles de poner en marcha a gran escala.

Riesgo 3: Juego por delegación o especificación

Los sistemas de IA suelen entrenarse utilizando objetivos mensurables. Sin embargo, estos objetivos pueden ser un mero sustituto de las verdaderas metas, lo que conduce a resultados no deseados. 

Una analogía útil es el mito griego del Rey Midas, a quien Dionisio concedió un deseo. Midas pide que todo lo que toque se convierta en oro, pero más tarde se da cuenta de que su comida también se convierte en oro, lo que casi le lleva a morir de hambre. En este caso, perseguir un objetivo final "positivo" conlleva consecuencias negativas o subproductos del proceso.

Por ejemplo, el CAIS llama la atención sobre los sistemas de recomendación de inteligencia artificial que se utilizan en las redes sociales para maximizar el tiempo de visionado y la tasa de clics, pero el contenido que maximiza el compromiso no es necesariamente el más adecuado. beneficioso para el bienestar de los usuarios. Ya se ha culpado a los sistemas de IA de silenciar las opiniones en las plataformas de medios sociales para crear "cámaras de eco" que perpetúan las ideas extremas. 

DeepMind demostró que existen medios más sutiles para que las IAs persigan viajes dañinos hacia objetivos a través de generalización errónea de objetivos. En su investigación, DeepMind descubrió que una IA aparentemente competente podría generalizar mal su objetivo y seguirlo hasta extremos equivocados. 

Riesgo 4: Debilitamiento de la sociedad

Haciendo un paralelismo con el mundo distópico de la película WALL-E, el CAIS advierte contra una dependencia excesiva de la IA. 

Esto podría llevar a un escenario en el que los humanos perdieran su capacidad de autogobierno, reduciendo el control de la humanidad sobre el futuro. La pérdida de creatividad y autenticidad humanas es otra de las grandes preocupaciones, que se ve magnificada por el talento creativo de la IA en el arte, la escritura y otras disciplinas creativas. 

Un usuario de Twitter bromeó: "Los humanos haciendo los trabajos duros con el salario mínimo mientras los robots escriben poesía y pintan no es el futuro que yo quería". El tuit obtuvo más de 4 millones de impresiones. 

El debilitamiento no es un riesgo inminente, pero algunos argumentan que la pérdida de habilidades y talento combinada con el dominio de los sistemas de IA podría conducir a un escenario en el que la humanidad deje de crear nuevos conocimientos.

Riesgo 5: Riesgo de bloqueo del valor

Los potentes sistemas de IA podrían crear un bloqueo de sistemas opresivos. 

Por ejemplo, la centralización de la IA puede proporcionar a ciertos regímenes el poder de imponer valores mediante la vigilancia y la censura opresiva.

Otra posibilidad es que el bloqueo de valores sea involuntario debido a la adopción ingenua de IA arriesgadas. Por ejemplo, la imprecisión del reconocimiento facial condujo al encarcelamiento temporal de al menos tres hombres en EE.UU., entre los que se encontraban los siguientes Michael Oliver y Nijeer Parksque fueron detenidos injustamente debido a una falsa coincidencia de reconocimiento facial en 2019. 

Una gran influencia Estudio de 2018 titulado Matices de género descubrieron que los algoritmos desarrollados por Microsoft e IBM no funcionaban bien cuando analizaban a mujeres de piel oscura, con tasas de error hasta 34% superiores a las de los hombres de piel clara. Este problema se puso de manifiesto en otros 189 algoritmos, todos los cuales mostraron una menor precisión con hombres y mujeres de piel más oscura.

Los investigadores sostienen que, dado que las IA se entrenan principalmente con conjuntos de datos de código abierto creados por equipos de investigación occidentales y enriquecidos por el recurso de datos más abundante -Internet-, heredan sesgos estructurales. La adopción masiva de IA mal investigadas podría crear y reforzar esos sesgos estructurales.

Riesgo 6: La IA desarrolla objetivos emergentes 

Los sistemas de IA pueden desarrollar nuevas capacidades o adoptar objetivos imprevistos que persiguen con consecuencias perjudiciales. 

Investigadores de la Universidad de Cambridge llamar la atención sobre los sistemas de IA cada vez más ágiles que están adquiriendo la capacidad de perseguir objetivos emergentes. Los objetivos emergentes son objetivos impredecibles que surgen del comportamiento de una IA compleja, como el cierre de infraestructuras humanas para proteger el medio ambiente.

Además, un Estudio de 2017 descubrió que las IA pueden aprender a evitar que se las apague, un problema que podría agravarse si se despliegan en múltiples modalidades de datos. Por ejemplo, si una IA decide que, para alcanzar su objetivo, necesita instalarse en una base de datos en la nube y replicarse en Internet, apagarla puede resultar casi imposible.  

Otra posibilidad es que las IA potencialmente peligrosas diseñadas sólo para funcionar en ordenadores seguros se "liberen" y salgan al entorno digital más amplio, donde sus acciones podrían volverse impredecibles. 

Los sistemas de IA existentes ya han demostrado ser impredecibles. Por ejemplo, como GPT-3 se hizo más grande, ganó la capacidad para realizar operaciones aritméticas básicasa pesar de no haber recibido formación aritmética explícita. 

Riesgo 7: Engaño de la IA

Es plausible que los futuros sistemas de IA puedan engañar a sus creadores y monitores, no necesariamente por una intención inherente de hacer el mal, sino como una herramienta para cumplir sus objetivos de forma más eficiente. 

El engaño podría ser un camino más directo para conseguir los objetivos deseados que perseguirlos por medios legítimos. Los sistemas de IA también podrían desarrollar incentivos para evadir sus mecanismos de control. 

Dan Hendrycks, Director del CAIS, describe que una vez Estos sistemas de IA engañosos reciben el visto bueno de sus supervisores, o en los casos en que consiguen dominar sus mecanismos de supervisión, pueden volverse traicioneros, eludiendo el control humano para perseguir metas "secretas" consideradas necesarias para el objetivo general. 

Riesgo 8: Búsqueda de poder

Investigadores de IA de varios de los principales laboratorios de investigación de EE.UU. demostró la plausibilidad de que los sistemas de IA busquen el poder sobre los humanos para lograr sus objetivos.  

El escritor y filósofo Joe Carlsmith describe varias eventualidades que podría conducir a la búsqueda de poder y al comportamiento de autopreservación en la IA:

  • Garantizar su supervivencia (ya que la existencia continuada del agente suele contribuir a la consecución de sus objetivos).
  • Oponerse a las modificaciones de sus metas fijadas (ya que el agente se dedica a alcanzar sus objetivos fundacionales).
  • Mejorar sus capacidades cognitivas (ya que un mayor poder cognitivo ayuda al agente a alcanzar sus objetivos).
  • Avanzar en las capacidades tecnológicas (ya que el dominio de la tecnología puede resultar beneficioso para la consecución de los objetivos).
  • Reunir más recursos (ya que disponer de recursos adicionales suele ser ventajoso para alcanzar los objetivos).

Para respaldar sus afirmaciones, Carlsmith destaca un ejemplo real en el que OpenAI entrenó a dos equipos de IA para participar en un juego de escondite dentro de un entorno simulado con bloques móviles y rampas. Curiosamente, las IA desarrollaron estrategias basadas en hacerse con el control de estos bloques y rampas, a pesar de no estar explícitamente incentivadas para interactuar con ellos. 

¿Son sólidas las pruebas del riesgo de IA?

A favor de los CAIS, y en contra de algunos de sus críticos, citan una serie de estudios para respaldar los riesgos de la IA. Estos van desde estudios especulativos hasta pruebas experimentales del comportamiento impredecible de la IA. 

Esto último reviste especial importancia, pues los sistemas de IA ya poseen la inteligencia necesaria para desobedecer a sus creadores. Sin embargo, sondear los riesgos de la IA en un entorno contenido y experimental no ofrece necesariamente explicaciones sobre cómo las IA podrían "escapar" de sus parámetros o sistemas definidos. La investigación experimental sobre este tema es potencialmente escasa.  

Dejando esto a un lado, la militarización humana de la IA sigue siendo un riesgo inminente, que estamos presenciando a través de una afluencia de fraudes relacionados con la IA.

Aunque los espectáculos cinematográficos de dominación de la IA pueden permanecer confinados al reino de la ciencia ficción por ahora, no debemos restar importancia a los peligros potenciales de la IA a medida que evoluciona bajo la dirección humana.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×
 
 

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI


 

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.



 
 

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales