{"id":7045,"date":"2023-11-02T21:38:56","date_gmt":"2023-11-02T21:38:56","guid":{"rendered":"https:\/\/dailyai.com\/?p=7045"},"modified":"2024-03-28T00:41:32","modified_gmt":"2024-03-28T00:41:32","slug":"the-battle-of-the-ai-godfathers-is-ai-risky-or-not","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","title":{"rendered":"La batalla de los \"padrinos de la IA\": \u00bfes arriesgada o no?"},"content":{"rendered":"<p><b>La IA es arriesgada, \u00bfverdad? Eso es lo que nos han dicho a todos este \u00faltimo a\u00f1o. Pero no todo el mundo est\u00e1 de acuerdo, incluidos algunos investigadores de alto nivel.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">X ha ardido en discusiones sobre si la IA plantea verdaderos riesgos existenciales. No estamos hablando de desinformaci\u00f3n o falsificaciones profundas -aunque estas ya son malas-, sino de riesgos a la altura de las cat\u00e1strofes nucleares y las pandemias.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Este debate ha sido liderado por Yann LeCun, esc\u00e9ptico de los riesgos de la IA y jefe de IA de Meta, considerado uno de los llamados \"padrinos de la IA\" junto a Yoshua Bengio y Geoffrey Hinton.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En la l\u00ednea de fuego de LeCun est\u00e1n el CEO de OpenAI, Sam Altman, el CEO de DeepMind, Demis Hassabis, y el CEO de Anthropic, Dario Amode, a quienes LeCun acus\u00f3 de \"lobby corporativo masivo\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En concreto, a LeCun le preocupa que los jefes de las grandes tecnol\u00f3gicas est\u00e9n intensificando la charla en torno al riesgo y el uso indebido de la IA para conseguir que los reguladores cierren el sector a su favor. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Las grandes tecnol\u00f3gicas tienen los medios necesarios para hacer frente a la regulaci\u00f3n, mientras que las empresas m\u00e1s peque\u00f1as y los desarrolladores de c\u00f3digo abierto no\". LeCun tambi\u00e9n pone en duda la visi\u00f3n a menudo pregonada de una \"singularidad\" de la IA en la que la tecnolog\u00eda se vuelve de repente m\u00e1s inteligente que los humanos, se\u00f1alando as\u00ed una nueva era de IA superinteligente.\u00a0<\/span><\/p>\n<p>Otros, como Altman, afirman ahora que esperan que el desarrollo de la IA sea m\u00e1s granular y progresivo, en lugar de \"despegar\" de la noche a la ma\u00f1ana.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">La *\u00fanica* raz\u00f3n por la que la gente est\u00e1 hiperventilando sobre el riesgo de la IA es el mito del \"despegue duro\": la idea de que en el momento en que se enciende un sistema superinteligente, la humanidad est\u00e1 condenada.<br \/>\nEsto es una estupidez absurda y se basa en una *completa* incomprensi\u00f3n de c\u00f3mo funciona todo.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1642524629137760259?ref_src=twsrc%5Etfw\">2 de abril de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Seg\u00fan los argumentos de LeCun, las grandes tecnol\u00f3gicas pueden utilizar los riesgos de la IA en su beneficio, lo que les permitir\u00eda reforzar las estructuras de mercado y eliminar a la competencia. El verdadero riesgo, seg\u00fan LeCun, es que unos pocos desarrolladores de IA se adue\u00f1en de la industria y dicten su trayectoria.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Subray\u00f3 la gravedad de la situaci\u00f3n afirmando: \"Si estos esfuerzos tienen \u00e9xito, el resultado ser\u00eda una cat\u00e1strofe porque un peque\u00f1o n\u00famero de empresas controlar\u00e1 la IA\". Esta afirmaci\u00f3n refleja el amplio consenso existente en el mundo de la tecnolog\u00eda sobre el potencial transformador de la IA, equiparando su importancia a la del microchip o Internet.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Las declaraciones de LeCun respond\u00edan al c\u00e9lebre f\u00edsico Max Tegmark, que hab\u00eda insinuado que LeCun no se tomaba suficientemente en serio los riesgos existenciales de la IA.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> En un post p\u00fablico, Tegmark reconoci\u00f3 los esfuerzos de los l\u00edderes mundiales por reconocer los peligros potenciales de la IA, afirmando: \"No se pueden refutar s\u00f3lo con sarcasmo y grupos de presi\u00f3n corporativos\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Yann, me encantar\u00eda o\u00edrte dar argumentos en lugar de siglas. Gracias a <a href=\"https:\/\/twitter.com\/RishiSunak?ref_src=twsrc%5Etfw\">@RishiSunak<\/a> &amp; <a href=\"https:\/\/twitter.com\/vonderleyen?ref_src=twsrc%5Etfw\">@vonderleyen<\/a> por darse cuenta de que los argumentos sobre el riesgo de la IA de Turing, Hinton, Bengio, Russell, Altman, Hassabis y Amodei no pueden refutarse s\u00f3lo con sarcasmo y presi\u00f3n corporativa. <a href=\"https:\/\/t.co\/Zv1rvOA3Zz\">https:\/\/t.co\/Zv1rvOA3Zz<\/a><\/p>\n<p>- Max Tegmark (@tegmark) <a href=\"https:\/\/twitter.com\/tegmark\/status\/1718663322738868595?ref_src=twsrc%5Etfw\">29 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">En medio del aumento de la influencia de la IA, figuras como Altman y Hassabis han pasado a ocupar un lugar central en el discurso p\u00fablico sobre tecnolog\u00eda. Sin embargo, LeCun les critica por alimentar el miedo a la IA al tiempo que se benefician de ella. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">En marzo, m\u00e1s de mil l\u00edderes tecnol\u00f3gicos, entre ellos Elon Musk, Altman y Hassabis, <a href=\"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\">abog\u00f3 por una pausa<\/a> en el desarrollo de la IA, alegando importantes riesgos sociales y humanitarios.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun, sin embargo, sostiene que estas dram\u00e1ticas advertencias son una cortina de humo que desv\u00eda la atenci\u00f3n de cuestiones inmediatas como <a href=\"https:\/\/dailyai.com\/es\/2023\/10\/digital-colonialism-in-the-age-of-ai-and-machine-learning\/\">explotaci\u00f3n laboral<\/a> y robo de datos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun pide que se vuelva a centrar el debate en el presente y el futuro inmediato del desarrollo de la IA. Expres\u00f3 su preocupaci\u00f3n por la posible desaparici\u00f3n de la comunidad de la IA de c\u00f3digo abierto si el desarrollo de la IA queda confinado a entidades privadas con \u00e1nimo de lucro.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Para LeCun, es mucho lo que est\u00e1 en juego: \"La alternativa, que inevitablemente ocurrir\u00e1 si se regula la desaparici\u00f3n de la IA de c\u00f3digo abierto, es que un peque\u00f1o n\u00famero de empresas de la costa oeste de EE.UU. y China controlen la plataforma de IA y, por tanto, controlen toda la dieta digital de la gente\", advirti\u00f3, instando a considerar las implicaciones para la democracia y la diversidad cultural.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Altman, Hassabis y Amodei son los que m\u00e1s est\u00e1n presionando a las empresas en este momento.<br \/>\nSon ellos quienes est\u00e1n intentando llevar a cabo una captura reguladora de la industria de la IA.<br \/>\nT\u00fa, Geoff y Yoshua est\u00e1is dando munici\u00f3n a los que presionan para que se proh\u00edba la I+D abierta de IA.<\/p>\n<p>Si...<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1718670073391378694?ref_src=twsrc%5Etfw\">29 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span style=\"font-weight: 400;\">Los partidarios de LeCun<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Los argumentos de LeCun est\u00e1n bien respaldados en las redes sociales y suscitan el acuerdo de comentaristas y expertos del sector. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por ejemplo, Andrew Ng, figura clave en el desarrollo de la IA y cofundador de Google Brain, tambi\u00e9n expres\u00f3 su preocupaci\u00f3n por la posibilidad de que las grandes empresas tecnol\u00f3gicas est\u00e9n manipulando el discurso sobre la IA para hacerse con el dominio del mercado.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Bueno, al menos *una* gran empresa tecnol\u00f3gica est\u00e1 abriendo modelos de IA y no miente sobre el riesgo existencial de la IA \ud83d\ude0a<a href=\"https:\/\/t.co\/vyk4qkOzOq\">https:\/\/t.co\/vyk4qkOzOq<\/a><\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719162768002093184?ref_src=twsrc%5Etfw\">31 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">En una entrevista con The Australian Financial Review, Ng destac\u00f3 una tendencia entre los gigantes tecnol\u00f3gicos a amplificar los temores a la IA, concretamente la idea de que podr\u00eda llevar a la extinci\u00f3n humana. Al igual que LeCun y otros, sugiere que esta narrativa se est\u00e1 utilizando estrat\u00e9gicamente para impulsar una regulaci\u00f3n m\u00e1s estricta de la IA, obstaculizando as\u00ed las iniciativas de c\u00f3digo abierto y los competidores m\u00e1s peque\u00f1os.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Definitivamente, hay grandes empresas tecnol\u00f3gicas que preferir\u00edan no tener que intentar competir con el c\u00f3digo abierto, as\u00ed que est\u00e1n creando el miedo a que la IA lleve a la extinci\u00f3n humana\", explic\u00f3 Ng. \"Ha sido un arma de los grupos de presi\u00f3n para defender una legislaci\u00f3n que ser\u00eda muy perjudicial para la comunidad de c\u00f3digo abierto\".<\/span><\/p>\n<p><a href=\"https:\/\/dailyai.com\/es\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\"><span style=\"font-weight: 400;\">A principios de a\u00f1o<\/span><\/a><span style=\"font-weight: 400;\">un memor\u00e1ndum filtrado de Google parece admitir que las grandes tecnol\u00f3gicas est\u00e1n perdiendo terreno frente al c\u00f3digo abierto.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La nota dec\u00eda: \"Los modelos de c\u00f3digo abierto son m\u00e1s r\u00e1pidos, m\u00e1s personalizables, m\u00e1s privados y, libra por libra, m\u00e1s capaces. Hacen cosas con par\u00e1metros de $100 y 13B que a nosotros nos cuesta hacer con $10M y 540B. Y lo hacen en semanas, no en meses\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La IA de c\u00f3digo abierto es r\u00e1pida, no monol\u00edtica, privada y, sobre todo, barata. La gran tecnolog\u00eda ya est\u00e1 <a href=\"https:\/\/dailyai.com\/es\/2023\/10\/can-the-tech-industry-overcome-the-challenge-of-ai-monetization\/\">luchando por monetizar la IA<\/a>As\u00ed que todo tiene sentido sobre el papel: regular la industria de la IA para ayudar a los titanes a prevalecer.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Distracciones de las amenazas inmediatas<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Hay otra dimensi\u00f3n en este debate que va m\u00e1s all\u00e1 del dinero. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Muchos han reiterado que los riesgos actuales de la IA, como las falsificaciones profundas extremadamente sofisticadas y la desinformaci\u00f3n, ya son suficientes para justificar un debate prolongado y una actuaci\u00f3n r\u00e1pida.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aidan Gomez, destacado investigador en IA y CEO de Cohere, tambi\u00e9n destac\u00f3 el riesgo de centrarse demasiado en escenarios catastrofistas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En v\u00edsperas del <a href=\"https:\/\/dailyai.com\/es\/2023\/11\/round-up-of-day-two-of-the-uks-ai-safety-summit\/\">Cumbre sobre seguridad de la IA<\/a>G\u00f3mez se\u00f1al\u00f3 que las amenazas inmediatas, como la desinformaci\u00f3n y la erosi\u00f3n de la confianza social, est\u00e1n siendo eclipsadas por los debates sobre los riesgos existenciales a largo plazo.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Creo que en t\u00e9rminos de riesgo existencial y pol\u00edtica p\u00fablica, no es una conversaci\u00f3n productiva\", declar\u00f3 G\u00f3mez, haciendo hincapi\u00e9 en la necesidad de priorizar los riesgos inmediatos. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"En cuanto a la pol\u00edtica p\u00fablica y donde deber\u00edamos tener el enfoque del sector p\u00fablico - o tratar de mitigar el riesgo para la poblaci\u00f3n civil - creo que forma una distracci\u00f3n, lejos de los riesgos que son mucho m\u00e1s tangibles e inmediatos.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">G\u00f3mez destaca la omnipresente influencia de la IA en productos utilizados por miles de millones de personas, haciendo hincapi\u00e9 en la urgente necesidad de abordar los riesgos que afectan activamente al p\u00fablico. \"Esta tecnolog\u00eda ya est\u00e1 en productos de miles de millones de usuarios, como en Google y otros. Eso presenta una serie de nuevos riesgos que hay que debatir, ninguno de los cuales es existencial, ninguno de los cuales es un escenario catastr\u00f3fico\", explic\u00f3.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se\u00f1ala la desinformaci\u00f3n como una de las principales preocupaciones, dada la capacidad de los modelos de IA para crear medios \"pr\u00e1cticamente indistinguibles de textos, im\u00e1genes o medios creados por humanos\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La desinformaci\u00f3n es, sin duda, el enemigo p\u00fablico n\u00famero uno en lo que respecta a los riesgos de la IA, dado que ya hemos observado ejemplos de falsificaciones profundas que se han utilizado con \u00e9xito en estafas. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Falsificaciones profundas desplegadas antes del tiempo de poste <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/10\/ai-generated-fake-audio-clips-continue-to-stir-controversy\/\"><span style=\"font-weight: 400;\">en las elecciones eslovacas<\/span><\/a><span style=\"font-weight: 400;\"> mostraron c\u00f3mo pueden afectar tangiblemente a la democracia.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Yoshua Bengio, Geoffrey Hinton y Elon Musk se unen al debate<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">El \"padrino de la IA\", Yoshua Bengio, junto con una asamblea de m\u00e1s de 200 l\u00edderes tecnol\u00f3gicos e investigadores, respald\u00f3 una carta abierta en la que se destaca la necesidad cr\u00edtica de una acci\u00f3n inmediata y sustancial. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio encabeza ahora un informe internacional presentado en la Cumbre de Seguridad de la IA del Reino Unido. Est\u00e1 muy convencido de los riesgos de la IA, al igual que Geoffrey Hinton, lo que significa que 2\/3 de los \"padrinos de la IA\" est\u00e1n preocupados en alg\u00fan nivel.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Usted y Yoshua est\u00e1n ayudando inadvertidamente a los que quieren poner la investigaci\u00f3n y el desarrollo de la IA bajo llave y proteger su negocio prohibiendo la investigaci\u00f3n abierta, el c\u00f3digo fuente abierto y los modelos de acceso abierto.<\/p>\n<p>Esto conducir\u00e1 inevitablemente a malos resultados a medio plazo.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719432513003901278?ref_src=twsrc%5Etfw\">31 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">En su p\u00e1gina web, <a href=\"https:\/\/yoshuabengio.org\/2023\/04\/05\/slowing-down-development-of-ai-systems-passing-the-turing-test\/\">Bengio escribi\u00f3<\/a>Recientemente he firmado una carta abierta en la que pido que se frene el desarrollo de sistemas gigantes de inteligencia artificial m\u00e1s potentes que el GPT-4, es decir, los que actualmente superan la prueba de Turing y, por tanto, pueden hacer creer a un ser humano que est\u00e1 conversando con un semejante y no con una m\u00e1quina\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Geoffrey Hinton, del triunvirato de padrinos de la IA, hab\u00eda dejado Google para \"hablar claro\" de sus temores sobre la IA. Lleg\u00f3 a decir que se arrepent\u00eda de su trabajo por el mal uso que pod\u00eda hacerse de la IA, afirmando en una entrevista: \"Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habr\u00eda hecho otro\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, al igual que Bengio, apoya la opini\u00f3n de que la IA plantea graves riesgos a nivel de extinci\u00f3n. Tambi\u00e9n duda de que los modelos de c\u00f3digo abierto puedan apoyar los esfuerzos de seguridad.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Recientemente destac\u00f3 que su decisi\u00f3n de abandonar Google estaba en desacuerdo con la postura cr\u00edtica de LeCun et al., declarando en X: \"Andrew Ng afirma que la idea de que la IA podr\u00eda extinguirnos es una conspiraci\u00f3n de las grandes tecnol\u00f3gicas. Un dato que no encaja en esta teor\u00eda de la conspiraci\u00f3n es que dej\u00e9 Google para poder hablar libremente sobre la amenaza existencial\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Andrew Ng afirma que la idea de que la IA podr\u00eda extinguirnos es una conspiraci\u00f3n de las grandes tecnol\u00f3gicas. Un dato que no encaja en esta teor\u00eda de la conspiraci\u00f3n es que dej\u00e9 Google para poder hablar libremente sobre la amenaza existencial.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719406116503707668?ref_src=twsrc%5Etfw\">31 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, Bengio y otros destacados investigadores de la IA, entre ellos el influyente inform\u00e1tico chino Andrew Yao, han publicado recientemente <\/span><a href=\"https:\/\/arxiv.org\/abs\/2310.17688\"><span style=\"font-weight: 400;\">respald\u00f3 un documento<\/span><\/a><span style=\"font-weight: 400;\"> describir los riesgos de la IA. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">En palabras de Hinton: \"Las empresas planean entrenar modelos con 100 veces m\u00e1s capacidad de c\u00e1lculo que los actuales, en un plazo de 18 meses. Nadie sabe lo potentes que ser\u00e1n. Y esencialmente no hay ninguna regulaci\u00f3n sobre lo que podr\u00e1n hacer con estos modelos\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Abramos tambi\u00e9n las armas nucleares para hacerlas m\u00e1s seguras. Los buenos (nosotros) siempre las tendremos m\u00e1s grandes que los malos (ellos), as\u00ed que todo deber\u00eda ir bien.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719443704098804136?ref_src=twsrc%5Etfw\">31 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Regular el despliegue de productos est\u00e1 bien.<br \/>\nEn el caso de aplicaciones vitales como la asistencia a la conducci\u00f3n, es necesario.<\/p>\n<p>A lo que nos oponemos es a regular la investigaci\u00f3n y el desarrollo de la IA.<br \/>\nSobre todo con l\u00edmites arbitrarios en los niveles de computaci\u00f3n.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719821488482660575?ref_src=twsrc%5Etfw\">1 de noviembre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Este debate divaga y seguir\u00e1 divagando.<\/p>\n<p>Un usuario de X coment\u00f3 lo siguiente:<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Padres fundadores de la IA teniendo dormitorio despu\u00e9s de 2 bong hits nivel debates <a href=\"https:\/\/t.co\/8MUze6hxBS\">pic.twitter.com\/8MUze6hxBS<\/a><\/p>\n<p>- Hassan Hayat \ud83d\udd25 (@TheSeaMouse) <a href=\"https:\/\/twitter.com\/TheSeaMouse\/status\/1719464104186814611?ref_src=twsrc%5Etfw\">31 de octubre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">LeCun tiene otro antagonista en Elon Musk, que rara vez est\u00e1 ausente de un debate X de alto nivel, especialmente de uno que se sit\u00faa firmemente en su terreno (por no mencionar su plataforma). <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Musk tiene un historial bien documentado de expresar su preocupaci\u00f3n por la IA, pero su postura se ha vuelto muy impredecible.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En los \u00faltimos tiempos, Musk ha tachado sistem\u00e1ticamente la IA de amenaza existencial potencial para la humanidad, afirmando que desarrollar IA compleja era como \"invocar al demonio\". En la Cumbre sobre Seguridad de la IA, sin embargo, dijo que pensaba que la IA producir\u00eda beneficios netos positivos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En los \u00faltimos meses, Musk ha criticado a OpenAI, destacando una desviaci\u00f3n de la misi\u00f3n original de la organizaci\u00f3n y expresando su preocupaci\u00f3n por su direcci\u00f3n de \"c\u00f3digo cerrado\", muy influenciada por Microsoft.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tanto Musk como LeCun coinciden ampliamente en sus cr\u00edticas a la IA de c\u00f3digo cerrado, lo que demuestra que defender los riesgos de la IA no siempre significa denunciar el c\u00f3digo abierto. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">En cuanto al c\u00f3digo abierto, veamos lo que Musk decide hacer con sus productos. <a href=\"https:\/\/dailyai.com\/es\/2023\/07\/elon-musk-unveils-mysterious-new-ai-venture-xai\/\">La empresa de IA xAI lanza<\/a>.<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">El jefe de Google DeepMind responde al \"alarmismo\" de LeCun<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">El director de Google DeepMind, Demis Hassabis, respondi\u00f3 a las alegaciones de LeCun, acusando a la empresa de participar en un amplio cabildeo corporativo para dominar la industria de la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En una entrevista concedida a <a href=\"https:\/\/www.cnbc.com\/world\/?region=world\">CNBC<\/a>, Hassabis subray\u00f3 que la participaci\u00f3n de DeepMind en los debates sobre IA no es un intento de lograr la \"captura normativa\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En respuesta a estas afirmaciones, Hassabis declar\u00f3: \"Estoy bastante en desacuerdo con la mayor\u00eda de esos comentarios de Yann\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Destac\u00f3 tres categor\u00edas principales de riesgos asociados a la IA, haciendo hincapi\u00e9 en la importancia de abordar problemas inmediatos como la desinformaci\u00f3n, las falsificaciones profundas y los prejuicios, sin dejar de considerar el posible uso indebido de la IA por parte de agentes malintencionados y los riesgos a largo plazo asociados a la inteligencia general artificial (AGI).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Abog\u00f3 por iniciar conversaciones sobre la regulaci\u00f3n de la IA superinteligente cuanto antes para evitar consecuencias nefastas.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Destacando la naturaleza global de la tecnolog\u00eda de IA, Hassabis subray\u00f3 la necesidad de cooperaci\u00f3n internacional, incluido el compromiso con China, para establecer normas de desarrollo y regulaci\u00f3n responsables.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tanto \u00e9l como James Manyika, Vicepresidente Senior de Investigaci\u00f3n, Tecnolog\u00eda y Sociedad de Google, expresaron su deseo de alcanzar un consenso mundial sobre la IA. Hassabis asisti\u00f3 a la Cumbre sobre Seguridad de la IA celebrada en el Reino Unido, donde se sum\u00f3 a la opini\u00f3n de los l\u00edderes mundiales de hacer hincapi\u00e9 en la seguridad y la supervisi\u00f3n de la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A pesar de las continuas tensiones tecnol\u00f3gicas entre EE.UU. y China y de la reticencia de los gigantes tecnol\u00f3gicos estadounidenses a realizar labores comerciales en China, Hassabis hizo hincapi\u00e9 en la necesidad de la comunicaci\u00f3n, afirmando: \"Creo que en este momento tenemos que hablar con todo el mundo\".<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">\u00bfHay un t\u00e9rmino medio?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Los debates en torno a los riesgos potenciales de la IA y las respuestas normativas necesarias est\u00e1n llegando a un punto cr\u00edtico. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">En las \u00faltimas semanas se han multiplicado las \"conversaciones oficiales\" sobre la IA, pero la regulaci\u00f3n sigue en tr\u00e1mite. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">La normativa estadounidense y la Ley de Inteligencia Artificial de la UE sentar\u00e1n las primeras bases s\u00f3lidas para la gobernanza de la IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun esgrime un argumento convincente en torno a la monetizaci\u00f3n de la IA frente a la competencia de c\u00f3digo abierto. Desde el memorando filtrado de Google hasta los riesgos existenciales que plantean los jefes de las grandes tecnol\u00f3gicas en los principales medios de comunicaci\u00f3n, \u00e9l y sus partidarios tienen munici\u00f3n de sobra.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sin embargo, la falta de consenso va m\u00e1s all\u00e1 de las cabezas de los desarrolladores de IA con \u00e1nimo de lucro de Microsoft, DeepMind, Anthropic, etc\u00e9tera. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio y Hinton son mayoritariamente no afiliados, y el difunto profesor Stephen Hawking, por ejemplo, declar\u00f3 c\u00e9lebremente que \"podr\u00eda significar el fin de la raza humana\" y convertirse en el \"peor acontecimiento de la historia de nuestra civilizaci\u00f3n\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los investigadores han demostrado la capacidad de los sistemas de IA para <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\"><span style=\"font-weight: 400;\">desarrollar de forma aut\u00f3noma objetivos emergentes<\/span><\/a><span style=\"font-weight: 400;\">que podr\u00edan tener consecuencias catastr\u00f3ficas si no se gestionan adecuadamente.\u00a0<\/span><span style=\"font-weight: 400;\">Otros experimentos han demostrado que los sistemas de IA pueden buscar recursos activamente, acumular energ\u00eda y tomar medidas para evitar ser apagados.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hay pruebas s\u00f3lidas de los da\u00f1os relacionados con la IA, pero \u00bfson proporcionales a las alarmas que hacen sonar los jefes de las grandes tecnol\u00f3gicas? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Y, lo que quiz\u00e1 sea m\u00e1s importante, \u00bfse puede confiar realmente en que manejen el sector de forma \u00e9tica para todos, independientemente de la presencia o ausencia de riesgo?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Quiz\u00e1 debamos considerar las acciones de las grandes tecnol\u00f3gicas como la apuesta definitiva. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Lo m\u00e1s probable es que la IA sea arriesgada, pero unas pocas empresas selectas quieren asumir ese riesgo, llevarla al l\u00edmite y darle la forma que consideren oportuna, para bien o para mal.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Las grandes tecnol\u00f3gicas podr\u00edan cargar el juego para que la casa siempre gane mientras siga en pie.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>La IA es arriesgada, \u00bfverdad? Eso es lo que nos han dicho a todos este \u00faltimo a\u00f1o. Pero no todo el mundo est\u00e1 de acuerdo, incluidos algunos investigadores de alto nivel.  X ha ardido en discusiones sobre si la IA plantea verdaderos riesgos existenciales. No hablamos de desinformaci\u00f3n o falsificaciones profundas -aunque \u00e9stas ya son malas-, sino de riesgos a la altura de las cat\u00e1strofes nucleares y las pandemias. Este debate ha sido liderado por Yann LeCun, esc\u00e9ptico de los riesgos de la IA y jefe de IA de Meta, considerado uno de los llamados \"padrinos de la IA\" junto a Yoshua Bengio y Geoffrey Hinton.  En la l\u00ednea de fuego de LeCun se encuentran Sam Altman, CEO de OpenAI, Demis Hassabis, CEO de DeepMind, y<\/p>","protected":false},"author":2,"featured_media":7046,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[103,339,131,463],"class_list":["post-7045","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-ai-debate","tag-ai-safety","tag-meta","tag-yann-lecun"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI<\/title>\n<meta name=\"description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI\" \/>\n<meta property=\"og:description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-02T21:38:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:41:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"wordCount\":2540,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"keywords\":[\"AI debate\",\"AI safety\",\"Meta\",\"Yann LeCUn\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"name\":\"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"description\":\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI risks\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La batalla de los \"padrinos de la IA\": \u00bfes la IA arriesgada o no? | DailyAI","description":"La IA es arriesgada, \u00bfverdad? Eso es lo que nos han dicho a todos este \u00faltimo a\u00f1o. Pero no todo el mundo est\u00e1 de acuerdo, incluidos algunos investigadores de alto nivel.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_locale":"es_ES","og_type":"article","og_title":"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI","og_description":"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0","og_url":"https:\/\/dailyai.com\/es\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_site_name":"DailyAI","article_published_time":"2023-11-02T21:38:56+00:00","article_modified_time":"2024-03-28T00:41:32+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"wordCount":2540,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","keywords":["AI debate","AI safety","Meta","Yann LeCUn"],"articleSection":["Ethics &amp; Society"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","url":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","name":"La batalla de los \"padrinos de la IA\": \u00bfes la IA arriesgada o no? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","description":"La IA es arriesgada, \u00bfverdad? Eso es lo que nos han dicho a todos este \u00faltimo a\u00f1o. Pero no todo el mundo est\u00e1 de acuerdo, incluidos algunos investigadores de alto nivel.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","width":1000,"height":667,"caption":"AI risks"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/7045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=7045"}],"version-history":[{"count":13,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/7045\/revisions"}],"predecessor-version":[{"id":7076,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/7045\/revisions\/7076"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/7046"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=7045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=7045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=7045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}