{"id":10342,"date":"2024-02-27T18:58:26","date_gmt":"2024-02-27T18:58:26","guid":{"rendered":"https:\/\/dailyai.com\/?p=10342"},"modified":"2024-03-28T00:37:55","modified_gmt":"2024-03-28T00:37:55","slug":"generative-ai-systems-hallucinations-and-mounting-technical-debt","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","title":{"rendered":"Sistemas de IA generativa, alucinaciones y creciente deuda t\u00e9cnica"},"content":{"rendered":"<p><strong>A medida que los sistemas de IA, como los grandes modelos ling\u00fc\u00edsticos (LLM), crecen en tama\u00f1o y complejidad, los investigadores descubren intrigantes limitaciones fundamentales.\u00a0<\/strong><\/p>\n<p>Estudios recientes de Google y la Universidad de Singapur han desvelado la mec\u00e1nica que subyace a las \"alucinaciones\" de la IA -en las que los modelos generan informaci\u00f3n convincente pero inventada- y la acumulaci\u00f3n de \"deuda t\u00e9cnica\", que podr\u00eda crear sistemas desordenados y poco fiables con el tiempo.<\/p>\n<p>M\u00e1s all\u00e1 de los retos t\u00e9cnicos, alinear las capacidades y los incentivos de la IA con los valores humanos sigue siendo una cuesti\u00f3n abierta.<\/p>\n<p>A medida que empresas como OpenAI avanzan hacia la inteligencia general artificial (AGI), asegurar el camino a seguir implica reconocer los l\u00edmites de los sistemas actuales.<\/p>\n<p><span style=\"font-weight: 400;\">Sin embargo, reconocer cuidadosamente los riesgos es antit\u00e9tico con el lema de Silicon Valley de \"moverse r\u00e1pido y romper cosas\", que caracteriza a la I+D en IA como lo hizo con las innovaciones tecnol\u00f3gicas anteriores.\u00a0<\/span><\/p>\n<h2>Estudio 1: los modelos de IA acumulan \"deuda t\u00e9cnica<\/h2>\n<p><span style=\"font-weight: 400;\">El aprendizaje autom\u00e1tico suele promocionarse como continuamente escalable, con sistemas que ofrecen un marco modular e integrado para el desarrollo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sin embargo, en segundo plano, los desarrolladores pueden estar acumulando un alto nivel de \"deuda t\u00e9cnica\" que tendr\u00e1n que resolver m\u00e1s adelante.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En un <\/span><a href=\"https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/pdf\/43146.pdf\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Documento de investigaci\u00f3n de Google<\/span><\/a><span style=\"font-weight: 400;\">El aprendizaje autom\u00e1tico: The High-Interest Credit Card of Technical Debt\", los investigadores debaten el concepto de deuda t\u00e9cnica en el contexto de los sistemas de ML.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">D. Sculley, CEO de Kaggle e investigador de Google durante muchos a\u00f1os, y sus colegas argumentan que, aunque el ML ofrece potentes herramientas para construir r\u00e1pidamente sistemas complejos, estas \"victorias r\u00e1pidas\" suelen ser enga\u00f1osas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La sencillez y la rapidez de implantaci\u00f3n de los modelos de ML pueden ocultar las futuras cargas que imponen a la capacidad de mantenimiento y evoluci\u00f3n del sistema. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Como describen los autores, esta deuda oculta surge de varios factores de riesgo espec\u00edficos de ML que los desarrolladores deber\u00edan evitar o refactorizar.<\/span><\/p>\n<p>He aqu\u00ed las principales conclusiones:<\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">Los sistemas de ML, por su naturaleza, introducen un nivel de complejidad que va m\u00e1s all\u00e1 de la mera codificaci\u00f3n. <\/span>Esto puede dar lugar a lo que los autores denominan \"erosi\u00f3n de los l\u00edmites\", donde las l\u00edneas claras entre los distintos componentes del sistema se difuminan debido a las interdependencias creadas por los modelos de ML. Esto dificulta el aislamiento y la aplicaci\u00f3n de mejoras sin afectar a otras partes del sistema.<\/li>\n<li>El documento tambi\u00e9n destaca el problema del \"enredo\", en el que los cambios en cualquier parte de un sistema de ML, como las caracter\u00edsticas de entrada o los par\u00e1metros del modelo, pueden tener efectos impredecibles en el resto del sistema. La alteraci\u00f3n de un peque\u00f1o par\u00e1metro puede desencadenar una cascada de efectos que afecten al funcionamiento y la integridad de todo el modelo.<\/li>\n<li>Otro problema es la creaci\u00f3n de \"bucles de retroalimentaci\u00f3n ocultos\", en los que los modelos de ML influyen en sus propios datos de entrenamiento de forma imprevista. Esto puede dar lugar a sistemas que evolucionan en direcciones no deseadas, lo que complica la gesti\u00f3n y la comprensi\u00f3n del comportamiento del sistema.<\/li>\n<li>Los autores tambi\u00e9n abordan las \"dependencias de datos\", como cuando las se\u00f1ales de entrada cambian con el tiempo, que son especialmente problem\u00e1ticas porque son m\u00e1s dif\u00edciles de detectar.<\/li>\n<\/ul>\n<h3>Por qu\u00e9 es importante la deuda t\u00e9cnica<\/h3>\n<p><span style=\"font-weight: 400;\">La deuda t\u00e9cnica afecta a la salud y eficiencia a largo plazo de los sistemas de ML. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Cuando los desarrolladores se apresuran a poner en marcha los sistemas de ML, pueden ignorar las complejidades de la gesti\u00f3n de datos o los riesgos de \"pegar\" diferentes partes. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Esto puede funcionar a corto plazo, pero puede dar lugar a una mara\u00f1a dif\u00edcil de diseccionar, actualizar o incluso comprender m\u00e1s adelante.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">\u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f<\/p>\n<p>GenAI es una avalancha de deuda t\u00e9cnica* a punto de producirse<\/p>\n<p>Esta misma semana<br \/>\n\ud83d\udc49ChatGPT se volvi\u00f3 \"loco\" casi sin explicaci\u00f3n real<br \/>\n\ud83d\udc49Sora no puede deducir sistem\u00e1ticamente cu\u00e1ntas patas tiene un gato<br \/>\n\ud83d\udc49La intervenci\u00f3n de Gemini sobre la diversidad se sali\u00f3 de madre.... <a href=\"https:\/\/t.co\/qzrVlpX9yz\">pic.twitter.com\/qzrVlpX9yz<\/a><\/p>\n<p>- Gary Marcus @ AAAI 2024 (@GaryMarcus) <a href=\"https:\/\/twitter.com\/GaryMarcus\/status\/1761414330577539340?ref_src=twsrc%5Etfw\">24 de febrero de 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">Por ejemplo, el uso de modelos ML tal cual a partir de una biblioteca parece eficiente hasta que te encuentras con una pesadilla de \"c\u00f3digo pegajoso\", en la que la mayor parte del sistema no es m\u00e1s que cinta adhesiva que mantiene unidas piezas que no estaban destinadas a encajar.\u00a0<\/span><\/p>\n<p>O las \"junglas de oleoductos\", descritas en un <a href=\"https:\/\/proceedings.neurips.cc\/paper_files\/paper\/2015\/file\/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf\" target=\"_blank\" rel=\"noopener\">documento anterior de D. Sculley<\/a> y colegas, donde la preparaci\u00f3n de datos se convierte en un laberinto de procesos entrelazados, por lo que hacer un cambio parece desactivar una bomba.<\/p>\n<h3>Implicaciones de la deuda t\u00e9cnica<\/h3>\n<p><span style=\"font-weight: 400;\">Para empezar, cuanto m\u00e1s enmara\u00f1ado est\u00e9 un sistema, m\u00e1s dif\u00edcil ser\u00e1 mejorarlo o mantenerlo. Esto no s\u00f3lo ahoga la innovaci\u00f3n, sino que puede dar lugar a problemas m\u00e1s siniestros.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Por ejemplo, si un sistema de ML empieza a tomar decisiones basadas en datos obsoletos o sesgados porque es demasiado engorroso actualizarlos, puede reforzar o <\/span><a href=\"https:\/\/dailyai.com\/es\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\"><span style=\"font-weight: 400;\">amplificar los prejuicios sociales<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Adem\u00e1s, en aplicaciones cr\u00edticas como <\/span><a href=\"https:\/\/dailyai.com\/es\/2024\/02\/does-ai-display-racial-and-gender-bias-when-evaluating-images\/\"><span style=\"font-weight: 400;\">sanidad<\/span><\/a><span style=\"font-weight: 400;\"> o veh\u00edculos aut\u00f3nomos, esa deuda t\u00e9cnica podr\u00eda tener consecuencias nefastas, no s\u00f3lo en t\u00e9rminos de tiempo y dinero, sino en el bienestar humano.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Como describe el estudio, \"no toda la deuda es necesariamente mala, pero la deuda t\u00e9cnica tiende a agravarse. Aplazar el trabajo para pagarla se traduce en mayores costes, fragilidad del sistema y menores tasas de innovaci\u00f3n.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tambi\u00e9n es un recordatorio para que las empresas y los consumidores exijan transparencia y responsabilidad en las tecnolog\u00edas de IA que adoptan. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Al fin y al cabo, el objetivo es aprovechar el poder de la IA para mejorar la vida, no estancarse en un ciclo interminable de pago de deudas t\u00e9cnicas.<\/span><\/p>\n<h2>Estudio 2: No se pueden separar las alucinaciones de los LLM<\/h2>\n<p>En un <a href=\"https:\/\/arxiv.org\/pdf\/2401.11817.pdf\" target=\"_blank\" rel=\"noopener\">estudio relacionado<\/a> de la Universidad Nacional de Singapur, los investigadores Ziwei Xu, Sanjay Jain y Mohan Kankanhalli investigaron las limitaciones inherentes a los LLM.<\/p>\n<p><span style=\"font-weight: 400;\">\"La alucinaci\u00f3n es inevitable: An Innate Limitation of Large Language Models\" explora la naturaleza de las alucinaciones de la IA, que describen casos en los que los sistemas de IA generan informaci\u00f3n plausible pero inexacta o totalmente inventada.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los fen\u00f3menos de alucinaci\u00f3n plantean un reto t\u00e9cnico importante, ya que ponen de manifiesto una brecha fundamental entre el resultado de un modelo de IA y lo que se considera la \"verdad de base\", es decir, un modelo ideal que siempre produce informaci\u00f3n correcta y l\u00f3gica.\u00a0<\/span><\/p>\n<p>Comprender c\u00f3mo y por qu\u00e9 alucina la IA generativa es primordial a medida que la tecnolog\u00eda se integra en sectores cr\u00edticos como el policial y judicial, el sanitario y el jur\u00eddico.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">\u00bfY si se pudiera *probar* que las alucinaciones son inevitables en los LLM?<\/p>\n<p>\u00bfCambiar\u00eda eso<br \/>\n- \u00bfQu\u00e9 opina de los LLM?<br \/>\n- \u00bfCu\u00e1nto invertir\u00eda en ellos?<br \/>\n- \u00bfEn qu\u00e9 medida dar\u00eda prioridad a la investigaci\u00f3n en alternativas?<\/p>\n<p>Un nuevo art\u00edculo lo demuestra: <a href=\"https:\/\/t.co\/r0eP3mFxQg\">https:\/\/t.co\/r0eP3mFxQg<\/a><br \/>\nh\/t... <a href=\"https:\/\/t.co\/Id2kdaCSGk\">pic.twitter.com\/Id2kdaCSGk<\/a><\/p>\n<p>- Gary Marcus @ AAAI 2024 (@GaryMarcus) <a href=\"https:\/\/twitter.com\/GaryMarcus\/status\/1761764524674457662?ref_src=twsrc%5Etfw\">25 de febrero de 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3>Fundamentos te\u00f3ricos de las alucinaciones<\/h3>\n<p><span style=\"font-weight: 400;\">El estudio comienza estableciendo un marco te\u00f3rico para comprender las alucinaciones en los LLM.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Los investigadores c<\/span><span style=\"font-weight: 400;\">rearon un modelo te\u00f3rico conocido como \"mundo formal\". Este entorno simplificado y controlado les permiti\u00f3 observar las condiciones en las que los modelos de IA no se ajustan a la verdad sobre el terreno.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A continuaci\u00f3n probaron dos grandes familias de LLM:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Llama 2<\/b><span style=\"font-weight: 400;\">: En concreto, se utiliz\u00f3 la versi\u00f3n de 70 mil millones de par\u00e1metros (llama2-70b-chat-hf) accesible en HuggingFace. Este modelo representa una de las entradas m\u00e1s recientes en el \u00e1mbito de los grandes modelos ling\u00fc\u00edsticos, dise\u00f1ado para una amplia gama de tareas de generaci\u00f3n y comprensi\u00f3n de textos.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Transformadores Generativos Preentrenados (GPT)<\/b><span style=\"font-weight: 400;\">: El estudio inclu\u00eda pruebas con GPT-3.5, concretamente el modelo gpt-3.5-turbo-16k, de 175.000 millones de par\u00e1metros, y GPT-4 (gpt-4-0613), cuyo n\u00famero exacto de par\u00e1metros sigue sin revelarse.\u00a0<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">A los LLM se les pidi\u00f3 que enumeraran cadenas de una longitud determinada utilizando un alfabeto espec\u00edfico, una tarea computacional aparentemente sencilla.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En concreto, los modelos deb\u00edan generar todas las cadenas posibles de longitudes comprendidas entre 1 y 7, utilizando alfabetos de dos caracteres (por ejemplo, {a, b}) y tres caracteres (por ejemplo, {a, b, c}).<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Las salidas se evaluaron en funci\u00f3n de si conten\u00edan todas y s\u00f3lo las cadenas de la longitud especificada del alfabeto dado.<\/span><\/p>\n<h3>Hallazgos<\/h3>\n<p><span style=\"font-weight: 400;\">Los resultados mostraron una clara limitaci\u00f3n en la capacidad de los modelos para completar correctamente la tarea a medida que aumentaba la complejidad (es decir, a medida que aumentaba la longitud de la cadena o el tama\u00f1o del alfabeto). En concreto:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Los modelos funcionaron adecuadamente con cadenas cortas y alfabetos peque\u00f1os, pero flaquearon a medida que aumentaba la complejidad de la tarea.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">En particular, ni siquiera el modelo avanzado GPT-4, el LLM m\u00e1s sofisticado disponible en la actualidad, pudo listar con \u00e9xito todas las cadenas a partir de ciertas longitudes.<\/span><\/li>\n<\/ul>\n<p>Esto demuestra que las alucinaciones no son un simple fallo que pueda parchearse o corregirse, sino un aspecto fundamental de la forma en que estos modelos comprenden y reproducen el lenguaje humano.<\/p>\n<p>Como describe el estudio, <span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\">\"Los LLM no pueden aprender todo <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">de<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> las funciones computables y, por tanto, siempre alucinar\u00e1. Puesto que el mundo formal <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">es<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> a parte <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">de<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> el mundo real que <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">es<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> mucho m\u00e1s complicadas, las alucinaciones tambi\u00e9n <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">inevitable<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> para los LLM del mundo real\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Las implicaciones para las aplicaciones de alto riesgo son enormes. En sectores como la sanidad, las finanzas o el derecho, donde la exactitud de la informaci\u00f3n puede tener graves consecuencias, confiar en un LLM sin un mecanismo de seguridad para filtrar estas alucinaciones podr\u00eda conducir a graves errores.<\/span><\/p>\n<p>Este estudio llam\u00f3 la atenci\u00f3n del experto en IA Gary Marcus y del eminente psic\u00f3logo cognitivo Steven Pinker.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">La alucinaci\u00f3n es inevitable con los Grandes Modelos Ling\u00fc\u00edsticos debido a su dise\u00f1o: no hay representaci\u00f3n de hechos o cosas, s\u00f3lo intercorrelaciones estad\u00edsticas. Nueva prueba de \"una limitaci\u00f3n innata\" de los LLM. <a href=\"https:\/\/t.co\/Hl1kqxJGXt\">https:\/\/t.co\/Hl1kqxJGXt<\/a><\/p>\n<p>- Steven Pinker (@sapinker) <a href=\"https:\/\/twitter.com\/sapinker\/status\/1761801185181200410?ref_src=twsrc%5Etfw\">25 de febrero de 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2>Hay cuestiones m\u00e1s profundas en juego<\/h2>\n<p><span style=\"font-weight: 400;\">La acumulaci\u00f3n de deuda t\u00e9cnica y la inevitabilidad de las alucinaciones en los LLM son sintom\u00e1ticas de un problema m\u00e1s profundo: el paradigma actual de desarrollo de la IA puede estar intr\u00ednsecamente desajustado para crear sistemas altamente inteligentes y alineados de forma fiable con los valores humanos y la verdad de los hechos.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">En campos delicados, no basta con tener un sistema de IA que acierte la mayor\u00eda de las veces. Tanto la deuda t\u00e9cnica como las alucinaciones amenazan la integridad del modelo con el paso del tiempo.\u00a0<\/span><\/p>\n<p>Solucionar esto no es s\u00f3lo un reto t\u00e9cnico, sino multidisciplinar, que requiere la aportaci\u00f3n de la \u00e9tica de la IA, la pol\u00edtica y la experiencia espec\u00edfica del dominio para navegar con seguridad.<\/p>\n<p>Ahora mismo, esto parece estar en contradicci\u00f3n con los principios de una industria que hace honor al lema de \"moverse r\u00e1pido y romper cosas\".<\/p>\n<p>Esperemos que los humanos no sean las \"cosas\".<\/p>","protected":false},"excerpt":{"rendered":"<p>A medida que los sistemas de IA, como los grandes modelos ling\u00fc\u00edsticos (LLM), crecen en tama\u00f1o y complejidad, los investigadores descubren intrigantes limitaciones fundamentales.  Estudios recientes de Google y la Universidad de Singapur han desvelado los mecanismos que subyacen a las \"alucinaciones\" de la IA -en las que los modelos generan informaci\u00f3n convincente pero inventada- y la acumulaci\u00f3n de \"deuda t\u00e9cnica\", que podr\u00eda crear sistemas desordenados y poco fiables con el tiempo. M\u00e1s all\u00e1 de los retos t\u00e9cnicos, la adecuaci\u00f3n de las capacidades y los incentivos de la IA a los valores humanos sigue siendo una cuesti\u00f3n pendiente. A medida que empresas como OpenAI avanzan hacia la inteligencia artificial general (IAG), asegurar el camino que queda por recorrer implica reconocer los l\u00edmites de los sistemas actuales. Sin embargo, reconocer cuidadosamente los riesgos es<\/p>","protected":false},"author":2,"featured_media":10364,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[480,118],"class_list":["post-10342","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-hallucinations","tag-llms"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Generative AI systems, hallucinations, and mounting technical debt | DailyAI<\/title>\n<meta name=\"description\" content=\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Generative AI systems, hallucinations, and mounting technical debt | DailyAI\" \/>\n<meta property=\"og:description\" content=\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-27T18:58:26+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:37:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Generative AI systems, hallucinations, and mounting technical debt\",\"datePublished\":\"2024-02-27T18:58:26+00:00\",\"dateModified\":\"2024-03-28T00:37:55+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"},\"wordCount\":1569,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"keywords\":[\"Hallucinations\",\"LLMS\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\",\"name\":\"Generative AI systems, hallucinations, and mounting technical debt | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"datePublished\":\"2024-02-27T18:58:26+00:00\",\"dateModified\":\"2024-03-28T00:37:55+00:00\",\"description\":\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"width\":1000,\"height\":667,\"caption\":\"technical debt AI\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Generative AI systems, hallucinations, and mounting technical debt\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Sistemas de IA generativa, alucinaciones y creciente deuda t\u00e9cnica | DailyAI","description":"A medida que los sistemas de IA, como los grandes modelos ling\u00fc\u00edsticos (LLM), crecen en tama\u00f1o y complejidad, los investigadores descubren intrigantes limitaciones fundamentales.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","og_locale":"es_ES","og_type":"article","og_title":"Generative AI systems, hallucinations, and mounting technical debt | DailyAI","og_description":"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0","og_url":"https:\/\/dailyai.com\/es\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","og_site_name":"DailyAI","article_published_time":"2024-02-27T18:58:26+00:00","article_modified_time":"2024-03-28T00:37:55+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Generative AI systems, hallucinations, and mounting technical debt","datePublished":"2024-02-27T18:58:26+00:00","dateModified":"2024-03-28T00:37:55+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"},"wordCount":1569,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","keywords":["Hallucinations","LLMS"],"articleSection":{"1":"Industry"},"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","url":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","name":"Sistemas de IA generativa, alucinaciones y creciente deuda t\u00e9cnica | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","datePublished":"2024-02-27T18:58:26+00:00","dateModified":"2024-03-28T00:37:55+00:00","description":"A medida que los sistemas de IA, como los grandes modelos ling\u00fc\u00edsticos (LLM), crecen en tama\u00f1o y complejidad, los investigadores descubren intrigantes limitaciones fundamentales.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","width":1000,"height":667,"caption":"technical debt AI"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Generative AI systems, hallucinations, and mounting technical debt"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/10342","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=10342"}],"version-history":[{"count":11,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/10342\/revisions"}],"predecessor-version":[{"id":10427,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/10342\/revisions\/10427"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/10364"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=10342"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=10342"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=10342"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}