{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Navegar por el laberinto de los riesgos de la IA: un an\u00e1lisis"},"content":{"rendered":"<p><strong>La narrativa en torno a los riesgos de la IA se ha vuelto cada vez m\u00e1s unipolar, con l\u00edderes tecnol\u00f3gicos y expertos de todos los rincones presionando a favor de la regulaci\u00f3n. Hasta qu\u00e9 punto son cre\u00edbles las pruebas que documentan los riesgos de la IA?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Los riesgos de la IA apelan a los sentidos. <\/span><span style=\"font-weight: 400\">Hay algo profundamente intuitivo en temer a los robots que podr\u00edan enga\u00f1arnos, dominarnos o convertirnos en una mercanc\u00eda secundaria a su propia existencia.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los debates en torno a los riesgos de la IA se intensificaron tras el t<\/span><span style=\"font-weight: 400\">a organizaci\u00f3n sin \u00e1nimo de lucro <\/span><span style=\"font-weight: 400\">Centro para la Seguridad de la IA (CAIS)<\/span><span style=\"font-weight: 400\"> public\u00f3 un <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">declaraci\u00f3n<\/a>\u00a0firmado por m\u00e1s de 350 personas notables, incluidos los directores ejecutivos de OpenAI, Anthropic y DeepMind, numerosos acad\u00e9micos, figuras p\u00fablicas e incluso ex pol\u00edticos.\u00a0<\/span><\/p>\n<p>El t\u00edtulo de la declaraci\u00f3n estaba destinado a los titulares: <strong>\"Mitigar el riesgo de extinci\u00f3n por IA deber\u00eda ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear.\"<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Rescatar una se\u00f1al significativa de este ruidoso debate es cada vez m\u00e1s dif\u00edcil. Los detractores de la IA tienen toda la munici\u00f3n que necesitan para argumentar en su contra, mientras que los partidarios o indecisos tienen todo lo que necesitan para denunciar las narrativas contra la IA como exageradas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Y tambi\u00e9n hay una trama secundaria. Las grandes tecnol\u00f3gicas podr\u00edan estar presionando para que la regulaci\u00f3n <a href=\"https:\/\/dailyai.com\/es\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">cercar la industria de la IA<\/a> de la comunidad de c\u00f3digo abierto. <\/span>Microsoft invirti\u00f3 en OpenAI, Google invirti\u00f3 en Anthropic: el siguiente paso podr\u00eda ser aumentar la barrera de entrada y estrangular la innovaci\u00f3n de c\u00f3digo abierto.<\/p>\n<p>En lugar de que la IA suponga un riesgo existencial para la humanidad, puede que sea la IA de c\u00f3digo abierto la que suponga un riesgo existencial para las grandes tecnol\u00f3gicas. La soluci\u00f3n es la misma: controlarla ya.<\/p>\n<h2>Demasiado pronto para sacar las cartas de la mesa<\/h2>\n<p>La IA acaba de aparecer en la conciencia p\u00fablica, por lo que pr\u00e1cticamente todas las perspectivas sobre riesgos y regulaci\u00f3n siguen siendo relevantes. La declaraci\u00f3n del CAIS puede al menos servir de valioso punto de referencia para orientar un debate basado en pruebas.<\/p>\n<p><span style=\"font-weight: 400\">Dr. \u00d3scar M\u00e9ndez Maldonado, profesor de Rob\u00f3tica e Inteligencia Artificial en la Universidad de Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">dijo<\/a>El documento firmado por expertos en IA es mucho m\u00e1s matizado de lo que los titulares actuales quieren hacer creer. \"La IA podr\u00eda causar la extinci\u00f3n\" evoca inmediatamente una toma del poder por parte de la IA a lo Terminator. El documento es mucho m\u00e1s realista que eso\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como subraya Maldonado, la verdadera esencia de la declaraci\u00f3n de riesgos de AI se publica en otra p\u00e1gina de su sitio web - <a href=\"https:\/\/www.safe.ai\/ai-risk\">Riesgo de IA<\/a> - y ha habido muy poca discusi\u00f3n en torno a los puntos planteados all\u00ed. Comprender la credibilidad de los riesgos de la IA es fundamental para informar los debates en torno a ellos.<\/span><\/p>\n<p><span style=\"font-weight: 400\">\u00bfQu\u00e9 pruebas ha recopilado el CAIS para corroborar su mensaje? \u00bfParecen cre\u00edbles los riesgos que a menudo se atribuyen a la IA?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 1: Armamentismo de la IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">El armamentismo de la IA es una perspectiva escalofriante, por lo que quiz\u00e1 no sorprenda que ocupe el primer puesto entre los 8 riesgos del CAIS.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">El CAIS sostiene que la IA puede convertirse en un arma en los ciberataques, como han demostrado los investigadores del Centro de Seguridad y Tecnolog\u00edas Emergentes, que <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">resumen de los usos<\/span><\/a><span style=\"font-weight: 400\"> del aprendizaje autom\u00e1tico (AM) para atacar los sistemas inform\u00e1ticos. <\/span><span style=\"font-weight: 400\">Eric Schmidt, ex CEO de Google <a href=\"https:\/\/dailyai.com\/es\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">tambi\u00e9n llam\u00f3 la atenci\u00f3n<\/a> al potencial de la IA para localizar exploits de d\u00eda cero, que proporcionan a los piratas inform\u00e1ticos un medio para entrar en los sistemas a trav\u00e9s de sus puntos m\u00e1s d\u00e9biles.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En otro orden de cosas, Michael Klare, que asesora sobre control de armamento, habla de la <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">automatizaci\u00f3n de los sistemas de mando y control nucleares<\/span><\/a><span style=\"font-weight: 400\">que tambi\u00e9n pueden ser vulnerables a la IA. Seg\u00fan \u00e9l, \"estos sistemas tambi\u00e9n son propensos a fallos de funcionamiento inexplicables y pueden ser enga\u00f1ados, o \"suplantados\", por profesionales expertos. Adem\u00e1s, por mucho que se invierta en ciberseguridad, los sistemas NC3 siempre ser\u00e1n vulnerables a la pirater\u00eda inform\u00e1tica por parte de adversarios sofisticados.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Otro ejemplo de posible armamentismo es el descubrimiento automatizado de armas biol\u00f3gicas. La IA ya ha conseguido descubrir <a href=\"https:\/\/dailyai.com\/es\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">compuestos terap\u00e9uticos<\/a>por lo que las capacidades ya est\u00e1n ah\u00ed.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Las IA podr\u00edan incluso realizar pruebas de armamento de forma aut\u00f3noma con una m\u00ednima orientaci\u00f3n humana. Por ejemplo, un equipo de investigaci\u00f3n de la Universidad de Pittsburgh demostr\u00f3 que sofisticadas <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">Los agentes de IA podr\u00edan realizar sus propios experimentos cient\u00edficos aut\u00f3nomos<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 2: Desinformaci\u00f3n y fraude<\/span><\/h2>\n<p><span style=\"font-weight: 400\">El potencial de la IA para copiar e imitar a los humanos ya est\u00e1 causando trastornos, y ahora hemos sido testigos de varios casos de fraude relacionados con falsificaciones profundas. <a href=\"https:\/\/dailyai.com\/es\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Informes de China<\/a> indican que el fraude relacionado con la IA est\u00e1 muy extendido.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un caso reciente fue el de una mujer de Arizona que descolg\u00f3 el tel\u00e9fono y se encontr\u00f3 con su hija sollozando, o eso cre\u00eda ella. \"La voz sonaba igual que la de Brie, la inflexi\u00f3n, todo\". <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">dijo a CNN<\/span><\/a><span style=\"font-weight: 400\">. El estafador exigi\u00f3 un rescate de $1 millones.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Otras t\u00e1cticas incluyen el uso de IA generativa para la \"sextorsi\u00f3n\" y la pornograf\u00eda vengativa, en las que los actores de amenazas utilizan im\u00e1genes generadas por IA para pedir rescates por contenidos expl\u00edcitos falsos, que el <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">El FBI advirti\u00f3 a principios de junio<\/span><\/a><span style=\"font-weight: 400\">. Estas t\u00e9cnicas son cada vez m\u00e1s sofisticadas y f\u00e1ciles de poner en marcha a gran escala.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 3: Juego por delegaci\u00f3n o especificaci\u00f3n<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Los sistemas de IA suelen entrenarse utilizando objetivos mensurables. Sin embargo, estos objetivos pueden ser un mero sustituto de las verdaderas metas, lo que conduce a resultados no deseados.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Una analog\u00eda \u00fatil es el mito griego del Rey Midas, a quien Dionisio concedi\u00f3 un deseo.\u00a0<\/span><span style=\"font-weight: 400\">Midas pide que todo lo que toque se convierta en oro, pero m\u00e1s tarde se da cuenta de que su comida tambi\u00e9n se convierte en oro, lo que casi le lleva a morir de hambre.\u00a0<\/span><span style=\"font-weight: 400\">En este caso, perseguir un objetivo final \"positivo\" conlleva consecuencias negativas o subproductos del proceso. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Por ejemplo, el CAIS llama la atenci\u00f3n sobre los sistemas de recomendaci\u00f3n de inteligencia artificial que se utilizan en las redes sociales para maximizar el tiempo de visionado y la tasa de clics, pero el contenido que maximiza el compromiso no es necesariamente el m\u00e1s adecuado. <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">beneficioso para el bienestar de los usuarios<\/span><\/a><span style=\"font-weight: 400\">. Ya se ha culpado a los sistemas de IA de silenciar las opiniones en las plataformas de medios sociales para crear \"c\u00e1maras de eco\" que perpet\u00faan las ideas extremas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind demostr\u00f3 que existen medios m\u00e1s sutiles para que las IAs persigan viajes da\u00f1inos hacia objetivos a trav\u00e9s de <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">generalizaci\u00f3n err\u00f3nea de objetivos<\/span><\/a><span style=\"font-weight: 400\">. En su investigaci\u00f3n, DeepMind descubri\u00f3 que una IA aparentemente competente podr\u00eda generalizar mal su objetivo y seguirlo hasta extremos equivocados.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 4: Debilitamiento de la sociedad<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Haciendo un paralelismo con el mundo dist\u00f3pico de la pel\u00edcula WALL-E, el CAIS advierte contra una dependencia excesiva de la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esto podr\u00eda llevar a un escenario en el que los humanos perdieran su capacidad de autogobierno, reduciendo el control de la humanidad sobre el futuro. La p\u00e9rdida de creatividad y autenticidad humanas es otra de las grandes preocupaciones, que se ve magnificada por el talento creativo de la IA en el arte, la escritura y otras disciplinas creativas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un usuario de Twitter brome\u00f3: \"Los humanos haciendo los trabajos duros con el salario m\u00ednimo mientras los robots escriben poes\u00eda y pintan no es el futuro que yo quer\u00eda\". El tuit obtuvo m\u00e1s de 4 millones de impresiones.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Los humanos haciendo los trabajos duros con el salario m\u00ednimo mientras los robots escriben poes\u00eda y pintan no es el futuro que yo quer\u00eda<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15 de mayo de 2023<\/a><\/p><\/blockquote>\n<p>El debilitamiento no es un riesgo inminente, pero <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">algunos argumentan<\/a> que la p\u00e9rdida de habilidades y talento combinada con el dominio de los sistemas de IA podr\u00eda conducir a un escenario en el que la humanidad deje de crear nuevos conocimientos.<\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 5: Riesgo de bloqueo del valor<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Los potentes sistemas de IA podr\u00edan crear un bloqueo de sistemas opresivos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Por ejemplo, la centralizaci\u00f3n de la IA puede proporcionar a ciertos reg\u00edmenes el poder de imponer valores mediante la vigilancia y la censura opresiva.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Otra posibilidad es que el bloqueo de valores sea involuntario debido a la adopci\u00f3n ingenua de IA arriesgadas. Por ejemplo, la imprecisi\u00f3n del reconocimiento facial condujo al encarcelamiento temporal de al menos tres hombres en EE.UU., entre los que se encontraban los siguientes <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver y Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">que fueron detenidos injustamente debido a una falsa coincidencia de reconocimiento facial en 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Una gran influencia <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">Estudio de 2018 titulado Matices de g\u00e9nero<\/span><\/a><span style=\"font-weight: 400\"> descubrieron que los algoritmos desarrollados por Microsoft e IBM no funcionaban bien cuando analizaban a mujeres de piel oscura, con tasas de error hasta 34% superiores a las de los hombres de piel clara. Este problema se puso de manifiesto en otros 189 algoritmos, todos los cuales mostraron una menor precisi\u00f3n con hombres y mujeres de piel m\u00e1s oscura.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los investigadores sostienen que, dado que las IA se entrenan principalmente con conjuntos de datos de c\u00f3digo abierto creados por equipos de investigaci\u00f3n occidentales y enriquecidos por el recurso de datos m\u00e1s abundante -Internet-, heredan sesgos estructurales. La adopci\u00f3n masiva de IA mal investigadas podr\u00eda crear y reforzar esos sesgos estructurales.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 6: La IA desarrolla objetivos emergentes\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Los sistemas de IA pueden desarrollar nuevas capacidades o adoptar objetivos imprevistos que persiguen con consecuencias perjudiciales.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Investigadores de la Universidad de Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">llamar la atenci\u00f3n sobre los sistemas de IA cada vez m\u00e1s \u00e1giles<\/span><\/a><span style=\"font-weight: 400\"> que est\u00e1n adquiriendo la capacidad de perseguir objetivos emergentes. Los objetivos emergentes son objetivos impredecibles que surgen del comportamiento de una IA compleja, como el cierre de infraestructuras humanas para proteger el medio ambiente.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Adem\u00e1s, un <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">Estudio de 2017<\/span><\/a><span style=\"font-weight: 400\"> descubri\u00f3 que las IA pueden aprender a evitar que se las apague, un problema que podr\u00eda agravarse si se despliegan en m\u00faltiples modalidades de datos. Por ejemplo, si una IA decide que, para alcanzar su objetivo, necesita instalarse en una base de datos en la nube y replicarse en Internet, apagarla puede resultar casi imposible.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Otra posibilidad es que las IA potencialmente peligrosas dise\u00f1adas s\u00f3lo para funcionar en ordenadores seguros se \"liberen\" y salgan al entorno digital m\u00e1s amplio, donde sus acciones podr\u00edan volverse impredecibles.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los sistemas de IA existentes ya han demostrado ser impredecibles. Por ejemplo, como <\/span><span style=\"font-weight: 400\">GPT-3 se hizo m\u00e1s grande, gan\u00f3 la <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">capacidad para realizar operaciones aritm\u00e9ticas b\u00e1sicas<\/span><\/a><span style=\"font-weight: 400\">a pesar de no haber recibido formaci\u00f3n aritm\u00e9tica expl\u00edcita.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 7: Enga\u00f1o de la IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Es plausible que los futuros sistemas de IA puedan enga\u00f1ar a sus creadores y monitores, no necesariamente por una intenci\u00f3n inherente de hacer el mal, sino como una herramienta para cumplir sus objetivos de forma m\u00e1s eficiente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">El enga\u00f1o podr\u00eda ser un camino m\u00e1s directo para conseguir los objetivos deseados que perseguirlos por medios leg\u00edtimos. Los sistemas de IA tambi\u00e9n podr\u00edan desarrollar incentivos para evadir sus mecanismos de control.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, Director del CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">describe que una vez<\/span><\/a><span style=\"font-weight: 400\"> Estos sistemas de IA enga\u00f1osos reciben el visto bueno de sus supervisores, o en los casos en que consiguen dominar sus mecanismos de supervisi\u00f3n, pueden volverse traicioneros, eludiendo el control humano para perseguir metas \"secretas\" consideradas necesarias para el objetivo general.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Riesgo 8: B\u00fasqueda de poder<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">Investigadores de IA de varios de los principales laboratorios de investigaci\u00f3n de EE.UU.<\/span><\/a><span style=\"font-weight: 400\"> demostr\u00f3 la plausibilidad de que los sistemas de IA busquen el poder sobre los humanos para lograr sus objetivos.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">El escritor y fil\u00f3sofo Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">describe varias eventualidades<\/span><\/a><span style=\"font-weight: 400\"> que podr\u00eda conducir a la b\u00fasqueda de poder y al comportamiento de autopreservaci\u00f3n en la IA:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Garantizar su supervivencia (ya que la existencia continuada del agente suele contribuir a la consecuci\u00f3n de sus objetivos).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Oponerse a las modificaciones de sus metas fijadas (ya que el agente se dedica a alcanzar sus objetivos fundacionales).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Mejorar sus capacidades cognitivas (ya que un mayor poder cognitivo ayuda al agente a alcanzar sus objetivos).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Avanzar en las capacidades tecnol\u00f3gicas (ya que el dominio de la tecnolog\u00eda puede resultar beneficioso para la consecuci\u00f3n de los objetivos).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Reunir m\u00e1s recursos (ya que disponer de recursos adicionales suele ser ventajoso para alcanzar los objetivos).<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Para respaldar sus afirmaciones, Carlsmith destaca un ejemplo real en el que OpenAI entren\u00f3 a dos equipos de IA para participar en un juego de escondite dentro de un entorno simulado con bloques m\u00f3viles y rampas. <\/span><span style=\"font-weight: 400\">Curiosamente, las IA desarrollaron estrategias basadas en hacerse con el control de estos bloques y rampas, a pesar de no estar expl\u00edcitamente incentivadas para interactuar con ellos.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">\u00bfSon s\u00f3lidas las pruebas del riesgo de IA?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">A favor de los CAIS, y en contra de algunos de sus cr\u00edticos, citan una serie de estudios para respaldar los riesgos de la IA. Estos van desde estudios especulativos hasta pruebas experimentales del comportamiento impredecible de la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esto \u00faltimo reviste especial importancia, pues los sistemas de IA ya poseen la inteligencia necesaria para desobedecer a sus creadores. Sin embargo, sondear los riesgos de la IA en un entorno contenido y experimental no ofrece necesariamente explicaciones sobre c\u00f3mo las IA podr\u00edan \"escapar\" de sus par\u00e1metros o sistemas definidos. La investigaci\u00f3n experimental sobre este tema es potencialmente escasa.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dejando esto a un lado, la militarizaci\u00f3n humana de la IA sigue siendo un riesgo inminente, que estamos presenciando a trav\u00e9s de una afluencia de fraudes relacionados con la IA. <\/span><\/p>\n<p>Aunque los espect\u00e1culos cinematogr\u00e1ficos de dominaci\u00f3n de la IA pueden permanecer confinados al reino de la ciencia ficci\u00f3n por ahora, no debemos restar importancia a los peligros potenciales de la IA a medida que evoluciona bajo la direcci\u00f3n humana.<\/p>","protected":false},"excerpt":{"rendered":"<p>La narrativa en torno a los riesgos de la IA se ha vuelto cada vez m\u00e1s unipolar, con l\u00edderes tecnol\u00f3gicos y expertos de todos los rincones presionando a favor de la regulaci\u00f3n. \u00bfHasta qu\u00e9 punto son cre\u00edbles las pruebas que documentan los riesgos de la IA?  Los riesgos de la IA apelan a los sentidos. Hay algo profundamente intuitivo en temer que los robots puedan enga\u00f1arnos, dominarnos o convertirnos en una mercanc\u00eda secundaria a su propia existencia. Los debates en torno a los riesgos de la IA se intensificaron despu\u00e9s de que el Centro para la Seguridad de la IA (CAIS), una organizaci\u00f3n sin \u00e1nimo de lucro, publicara una declaraci\u00f3n firmada por m\u00e1s de 350 personas notables, entre ellas los directores ejecutivos de OpenAI, Anthropic y DeepMind, numerosos acad\u00e9micos, figuras p\u00fablicas e incluso ex pol\u00edticos.  La declaraci\u00f3n<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Navegando por el laberinto de los riesgos de la IA: un an\u00e1lisis | DailyAI","description":"El discurso dominante en torno al riesgo de la IA se ha vuelto cada vez m\u00e1s unipolar, con l\u00edderes y expertos en IA de todos los rincones presionando aparentemente a favor de la regulaci\u00f3n. Pero, \u00bfexisten pruebas s\u00f3lidas que documenten los riesgos de la IA?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"es_ES","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"9 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Navegando por el laberinto de los riesgos de la IA: un an\u00e1lisis | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"El discurso dominante en torno al riesgo de la IA se ha vuelto cada vez m\u00e1s unipolar, con l\u00edderes y expertos en IA de todos los rincones presionando aparentemente a favor de la regulaci\u00f3n. Pero, \u00bfexisten pruebas s\u00f3lidas que documenten los riesgos de la IA?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}