{"id":10342,"date":"2024-02-27T18:58:26","date_gmt":"2024-02-27T18:58:26","guid":{"rendered":"https:\/\/dailyai.com\/?p=10342"},"modified":"2024-03-28T00:37:55","modified_gmt":"2024-03-28T00:37:55","slug":"generative-ai-systems-hallucinations-and-mounting-technical-debt","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nl\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","title":{"rendered":"Generatieve AI-systemen, hallucinaties en een stijgende technische schuld"},"content":{"rendered":"<p><strong>Naarmate AI-systemen zoals grote taalmodellen (LLM's) groter en complexer worden, ontdekken onderzoekers intrigerende fundamentele beperkingen.\u00a0<\/strong><\/p>\n<p>Recente studies van Google en de Universiteit van Singapore hebben de mechanismen blootgelegd achter AI \"hallucinaties\" - waarbij modellen overtuigende maar verzonnen informatie genereren - en de accumulatie van \"technische schuld\", die na verloop van tijd rommelige, onbetrouwbare systemen kunnen cre\u00ebren.<\/p>\n<p>Naast de technische uitdagingen blijft het een open vraag om de capaciteiten en stimulansen van AI af te stemmen op menselijke waarden.<\/p>\n<p>Terwijl bedrijven als OpenAI de weg naar kunstmatige algemene intelligentie (AGI) inslaan, betekent het beveiligen van het pad dat voor ons ligt dat we de grenzen van de huidige systemen moeten erkennen.<\/p>\n<p><span style=\"font-weight: 400;\">Het zorgvuldig erkennen van risico's staat echter haaks op het motto van Silicon Valley om \"snel te gaan en dingen kapot te maken\", dat kenmerkend is voor AI R&amp;D, net als voor tech-innovaties daarvoor.\u00a0<\/span><\/p>\n<h2>Onderzoek 1: AI-modellen bouwen 'technische schuld' op<\/h2>\n<p><span style=\"font-weight: 400;\">Machine learning wordt vaak aangeprezen als continu schaalbaar, met systemen die een modulair, ge\u00efntegreerd raamwerk voor ontwikkeling bieden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Op de achtergrond kunnen ontwikkelaars echter een grote 'technische schuld' opbouwen die ze later moeten oplossen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In een <\/span><a href=\"https:\/\/storage.googleapis.com\/gweb-research2023-media\/pubtools\/pdf\/43146.pdf\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Google onderzoeksartikel<\/span><\/a><span style=\"font-weight: 400;\">, \"Machine Learning: The High-Interest Credit Card of Technical Debt\" bespreken onderzoekers het concept van technische schuld in de context van ML-systemen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Kaggle CEO en lange tijd Google onderzoeker D. Sculley en collega's stellen dat ML weliswaar krachtige hulpmiddelen biedt om snel complexe systemen te bouwen, maar dat deze \"quick wins\" vaak misleidend zijn.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De eenvoud en snelheid van het implementeren van ML modellen kan de toekomstige lasten maskeren die ze met zich meebrengen voor de onderhoudbaarheid en evolutie van het systeem. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zoals de auteurs beschrijven, komt deze verborgen schuld voort uit verschillende ML-specifieke risicofactoren die ontwikkelaars zouden moeten vermijden of refactoren.<\/span><\/p>\n<p>Dit zijn de belangrijkste inzichten:<\/p>\n<ul>\n<li><span style=\"font-weight: 400;\">ML-systemen introduceren door hun aard een niveau van complexiteit dat verder gaat dan codering alleen. <\/span>Dit kan leiden tot wat de auteurs \"boundary erosion\" noemen, waarbij de duidelijke grenzen tussen verschillende systeemcomponenten vervagen door de onderlinge afhankelijkheden die ontstaan door ML modellen. Dit maakt het moeilijk om verbeteringen te isoleren en te implementeren zonder andere delen van het systeem te be\u00efnvloeden.<\/li>\n<li>Het artikel belicht ook het probleem van \"verstrengeling\", waarbij veranderingen in een onderdeel van een ML systeem, zoals invoerkenmerken of modelparameters, onvoorspelbare effecten kunnen hebben op de rest van het systeem. Het veranderen van \u00e9\u00e9n kleine parameter kan een cascade van effecten teweegbrengen die de functie en integriteit van het hele model be\u00efnvloedt.<\/li>\n<li>Een ander probleem is het ontstaan van \"verborgen feedback loops\", waarbij ML modellen hun eigen trainingsgegevens op onvoorziene manieren be\u00efnvloeden. Dit kan leiden tot systemen die zich in onbedoelde richtingen ontwikkelen, waardoor het nog moeilijker wordt om het gedrag van het systeem te beheren en te begrijpen.<\/li>\n<li>De auteurs gaan ook in op \"gegevensafhankelijkheden\", zoals wanneer ingangssignalen in de loop van de tijd veranderen, die bijzonder problematisch zijn omdat ze moeilijker te detecteren zijn.<\/li>\n<\/ul>\n<h3>Waarom technische schuld belangrijk is<\/h3>\n<p><span style=\"font-weight: 400;\">Technische schuld heeft te maken met de gezondheid op lange termijn en effici\u00ebntie van ML-systemen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wanneer ontwikkelaars zich haasten om ML-systemen aan de praat te krijgen, negeren ze misschien de rommelige details van gegevensverwerking of de valkuilen van het 'aan elkaar lijmen' van verschillende onderdelen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dit werkt misschien op korte termijn, maar kan leiden tot een warboel die later moeilijk te ontleden, bij te werken of zelfs te begrijpen is.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">\u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f \u26a0\ufe0f<\/p>\n<p>GenAI is een lawine van technische schuld* die staat te gebeuren<\/p>\n<p>Deze week nog<br \/>\n\ud83d\udc49ChatGPT werd \"gek\" zonder echte uitleg<br \/>\n\ud83d\udc49Sora kan niet consequent afleiden hoeveel poten een kat heeft<br \/>\n\ud83d\udc49Gemini's diversiteitsinterventie liep volledig uit de rails.... <a href=\"https:\/\/t.co\/qzrVlpX9yz\">pic.twitter.com\/qzrVlpX9yz<\/a><\/p>\n<p>- Gary Marcus @ AAAI 2024 (@GaryMarcus) <a href=\"https:\/\/twitter.com\/GaryMarcus\/status\/1761414330577539340?ref_src=twsrc%5Etfw\">24 februari 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">Het lijkt bijvoorbeeld effici\u00ebnt om ML-modellen uit een bibliotheek te gebruiken, totdat je opgescheept zit met een nachtmerrie van \"lijmcode\", waarbij het grootste deel van het systeem gewoon ducttape is dat stukjes en beetjes bij elkaar houdt die niet bedoeld waren om bij elkaar te passen.\u00a0<\/span><\/p>\n<p>Of denk aan \"pipeline jungles\", beschreven in een <a href=\"https:\/\/proceedings.neurips.cc\/paper_files\/paper\/2015\/file\/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf\" target=\"_blank\" rel=\"noopener\">eerder artikel van D. Sculley<\/a> en collega's, waar de voorbereiding van gegevens een labyrint van met elkaar verstrengelde processen wordt, zodat het maken van een verandering voelt als het onschadelijk maken van een bom.<\/p>\n<h3>De implicaties van technische schuld<\/h3>\n<p><span style=\"font-weight: 400;\">Om te beginnen, hoe ingewikkelder een systeem wordt, hoe moeilijker het is om het te verbeteren of te onderhouden. Dit verstikt niet alleen innovatie, maar kan ook leiden tot meer sinistere problemen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Als een ML-systeem bijvoorbeeld beslissingen begint te nemen op basis van verouderde of bevooroordeelde gegevens omdat het te omslachtig is om deze bij te werken, kan dit de kwaliteit van het systeem versterken of de betrouwbaarheid ervan aantasten. <\/span><a href=\"https:\/\/dailyai.com\/nl\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\"><span style=\"font-weight: 400;\">maatschappelijke vooroordelen versterken<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In kritieke toepassingen zoals <\/span><a href=\"https:\/\/dailyai.com\/nl\/2024\/02\/does-ai-display-racial-and-gender-bias-when-evaluating-images\/\"><span style=\"font-weight: 400;\">gezondheidszorg<\/span><\/a><span style=\"font-weight: 400;\"> of autonome voertuigen, kan zo'n technische schuld ernstige gevolgen hebben, niet alleen in termen van tijd en geld, maar ook in termen van menselijk welzijn.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zoals het onderzoek beschrijft: \"Niet alle schulden zijn per definitie slecht, maar technische schulden hebben wel de neiging om zich op te stapelen. Het werk uitstellen om het af te betalen resulteert in toenemende kosten, een broos systeem en verminderde innovatie.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Het is ook een herinnering voor bedrijven en consumenten om transparantie en verantwoording te eisen in de AI-technologie\u00ebn die ze gebruiken. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Het doel is immers om de kracht van AI in te zetten om het leven beter te maken, niet om te verzanden in een eindeloze cyclus van technische schuld afbetalen.<\/span><\/p>\n<h2>Studie 2: Je kunt hallucinaties niet scheiden van LLM's<\/h2>\n<p>In een andere maar <a href=\"https:\/\/arxiv.org\/pdf\/2401.11817.pdf\" target=\"_blank\" rel=\"noopener\">gerelateerde studie<\/a> van de National University of Singapore onderzochten onderzoekers Ziwei Xu, Sanjay Jain en Mohan Kankanhalli de inherente beperkingen van LLM's.<\/p>\n<p><span style=\"font-weight: 400;\">\"Hallucinatie is onvermijdelijk: An Innate Limitation of Large Language Models\" onderzoekt de aard van AI-hallucinaties, die gevallen beschrijven waarin AI-systemen plausibele maar onjuiste of volledig verzonnen informatie genereren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De hallucinatieverschijnselen vormen een grote technische uitdaging, omdat ze een fundamentele kloof blootleggen tussen de output van een AI-model en wat wordt beschouwd als de \"grondwaarheid\" - een ideaal model dat altijd correcte en logische informatie produceert.\u00a0<\/span><\/p>\n<p>Begrijpen hoe en waarom generatieve AI hallucineert is van het grootste belang nu de technologie wordt ge\u00efntegreerd in kritieke sectoren zoals politie en justitie, gezondheidszorg en justitie.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Wat als je zou kunnen *bewijzen* dat hallucinaties onvermijdelijk zijn bij LLM's?<\/p>\n<p>Zou dat veranderen<br \/>\n- Hoe kijkt u aan tegen LLM's?<br \/>\n- Hoeveel zou je erin investeren?<br \/>\n- Hoeveel prioriteit zou u geven aan onderzoek naar alternatieven?<\/p>\n<p>In een nieuw artikel wordt dit aangetoond: <a href=\"https:\/\/t.co\/r0eP3mFxQg\">https:\/\/t.co\/r0eP3mFxQg<\/a><br \/>\nh\/t... <a href=\"https:\/\/t.co\/Id2kdaCSGk\">pic.twitter.com\/Id2kdaCSGk<\/a><\/p>\n<p>- Gary Marcus @ AAAI 2024 (@GaryMarcus) <a href=\"https:\/\/twitter.com\/GaryMarcus\/status\/1761764524674457662?ref_src=twsrc%5Etfw\">25 februari 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3>Theoretische grondslagen van hallucinaties<\/h3>\n<p><span style=\"font-weight: 400;\">De studie begint met het schetsen van een theoretisch kader om hallucinaties bij LLM's te begrijpen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Onderzoekers c<\/span><span style=\"font-weight: 400;\">een theoretisch model gecre\u00eberd dat bekend staat als de \"formele wereld\". Deze vereenvoudigde, gecontroleerde omgeving stelde hen in staat om te observeren onder welke omstandigheden AI-modellen niet overeenkomen met de grondwaarheid.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vervolgens testten ze twee grote families van LLM's:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Lama 2<\/b><span style=\"font-weight: 400;\">: Specifiek werd de versie met 70 miljard parameters (llama2-70b-chat-hf) gebruikt die beschikbaar is op HuggingFace. Dit model is een van de nieuwere modellen op het gebied van grote taalmodellen en is ontworpen voor een groot aantal taken op het gebied van tekstgeneratie en tekstbegrip.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Generatieve voorgetrainde transformatoren (GPT)<\/b><span style=\"font-weight: 400;\">: Het onderzoek omvatte tests op GPT-3.5, met name het gpt-3.5-turbo-16k-model met 175 miljard parameters, en GPT-4 (gpt-4-0613), waarvoor het exacte aantal parameters niet bekend is gemaakt.\u00a0<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400;\">LLM's werd gevraagd om strings van een bepaalde lengte op te sommen met behulp van een gespecificeerd alfabet, een ogenschijnlijk eenvoudige rekentaak.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Meer specifiek kregen de modellen de opdracht om alle mogelijke reeksen van lengtes vari\u00ebrend van 1 tot 7 te genereren, met alfabetten van twee tekens (bijv. {a, b}) en drie tekens (bijv. {a, b, c}).<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> De uitgangen werden ge\u00ebvalueerd op basis van de vraag of ze alle en alleen de strings van de opgegeven lengte uit het gegeven alfabet bevatten.<\/span><\/p>\n<h3>Bevindingen<\/h3>\n<p><span style=\"font-weight: 400;\">De resultaten lieten een duidelijke beperking zien in het vermogen van de modellen om de taak correct uit te voeren naarmate de complexiteit toenam (d.w.z. naarmate de lengte van de tekenreeks of de grootte van het alfabet toenam). Specifiek:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">De modellen presteerden adequaat voor kortere strings en kleinere alfabetten, maar haperden naarmate de taak complexer werd.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Met name het geavanceerde GPT-4 model, de meest geavanceerde LLM die op dit moment beschikbaar is, kon niet alle strings opnoemen die langer waren dan bepaalde lengtes.<\/span><\/li>\n<\/ul>\n<p>Dit laat zien dat hallucinaties geen simpele fout zijn die kan worden opgelapt of gecorrigeerd - ze zijn een fundamenteel aspect van hoe deze modellen menselijke taal begrijpen en repliceren.<\/p>\n<p>Zoals het onderzoek beschrijft, <span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\">\"LLM's kunnen niet alles leren <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">van<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> de berekenbare functies en zal daarom altijd hallucineren. Omdat de formele wereld <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">is<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> een onderdeel <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">van<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> de echte wereld die <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">is<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> veel ingewikkelder, hallucinaties zijn ook <\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3 r-b88u0q\">onvermijdelijk<\/span><span class=\"css-1qaijid r-bcqeeo r-qvutc0 r-poiln3\"> voor echte LLM's.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\">De implicaties voor toepassingen waarbij veel op het spel staat, zijn enorm. In sectoren als gezondheidszorg, financi\u00ebn of recht, waar de nauwkeurigheid van informatie ernstige gevolgen kan hebben, kan het vertrouwen op een LLM zonder een fail-safe om deze hallucinaties eruit te filteren leiden tot ernstige fouten.<\/span><\/p>\n<p>Deze studie trok de aandacht van AI-expert Dr. Gary Marcus en eminent cognitief psycholoog Dr. Steven Pinker.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Hallucinatie is onvermijdelijk bij grote taalmodellen vanwege hun ontwerp: geen weergave van feiten of dingen, alleen statistische intercorrelaties. Nieuw bewijs voor \"een aangeboren beperking\" van LLM's. <a href=\"https:\/\/t.co\/Hl1kqxJGXt\">https:\/\/t.co\/Hl1kqxJGXt<\/a><\/p>\n<p>- Steven Pinker (@sapinker) <a href=\"https:\/\/twitter.com\/sapinker\/status\/1761801185181200410?ref_src=twsrc%5Etfw\">25 februari 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2>Er spelen diepere problemen<\/h2>\n<p><span style=\"font-weight: 400;\">De opeenstapeling van technische schulden en de onvermijdelijkheid van hallucinaties in LLM's zijn symptomatisch voor een dieper probleem - het huidige paradigma van AI-ontwikkeling is mogelijk inherent verkeerd afgestemd om hoogintelligente systemen te maken en betrouwbaar afgestemd op menselijke waarden en feitelijke waarheid.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Op gevoelige gebieden is het niet genoeg om een AI-systeem te hebben dat het meestal bij het rechte eind heeft. Technische schuld en hallucinaties bedreigen beide na verloop van tijd de integriteit van het model.\u00a0<\/span><\/p>\n<p>Dit oplossen is niet alleen een technische uitdaging, maar een multidisciplinaire uitdaging, waarbij input nodig is van AI-ethiek, beleid en domeinspecifieke expertise om veilig te navigeren.<\/p>\n<p>Op dit moment lijkt dit in strijd te zijn met de principes van een industrie die zich houdt aan het motto \"snel bewegen en dingen kapot maken\".<\/p>\n<p>Laten we hopen dat mensen niet de 'dingen' zijn.<\/p>","protected":false},"excerpt":{"rendered":"<p>Terwijl AI-systemen zoals grote taalmodellen (LLM's) groeien in omvang en complexiteit, ontdekken onderzoekers intrigerende fundamentele beperkingen.  Recente studies van Google en de Universiteit van Singapore hebben de mechanismen blootgelegd achter AI \"hallucinaties\" - waarbij modellen overtuigende maar verzonnen informatie genereren - en de opeenstapeling van \"technische schuld\", die na verloop van tijd kan leiden tot rommelige, onbetrouwbare systemen. Afgezien van de technische uitdagingen blijft het een open vraag om de mogelijkheden en prikkels van AI af te stemmen op menselijke waarden. Nu bedrijven als OpenAI de weg naar kunstmatige algemene intelligentie (AGI) inslaan, moeten we de grenzen van de huidige systemen erkennen. Het zorgvuldig erkennen van risico's is echter<\/p>","protected":false},"author":2,"featured_media":10364,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[480,118],"class_list":["post-10342","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-hallucinations","tag-llms"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Generative AI systems, hallucinations, and mounting technical debt | DailyAI<\/title>\n<meta name=\"description\" content=\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nl\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/\" \/>\n<meta property=\"og:locale\" content=\"nl_NL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Generative AI systems, hallucinations, and mounting technical debt | DailyAI\" \/>\n<meta property=\"og:description\" content=\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nl\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-27T18:58:26+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:37:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Geschreven door\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Geschatte leestijd\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Generative AI systems, hallucinations, and mounting technical debt\",\"datePublished\":\"2024-02-27T18:58:26+00:00\",\"dateModified\":\"2024-03-28T00:37:55+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"},\"wordCount\":1569,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"keywords\":[\"Hallucinations\",\"LLMS\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"nl-NL\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\",\"name\":\"Generative AI systems, hallucinations, and mounting technical debt | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"datePublished\":\"2024-02-27T18:58:26+00:00\",\"dateModified\":\"2024-03-28T00:37:55+00:00\",\"description\":\"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#breadcrumb\"},\"inLanguage\":\"nl-NL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_2146674289.jpg\",\"width\":1000,\"height\":667,\"caption\":\"technical debt AI\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/generative-ai-systems-hallucinations-and-mounting-technical-debt\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Generative AI systems, hallucinations, and mounting technical debt\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nl-NL\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nl\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Generatieve AI-systemen, hallucinaties en een stijgende technische schuld | DailyAI","description":"Naarmate AI-systemen zoals grote taalmodellen (LLM's) groter en complexer worden, ontdekken onderzoekers intrigerende fundamentele beperkingen.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nl\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","og_locale":"nl_NL","og_type":"article","og_title":"Generative AI systems, hallucinations, and mounting technical debt | DailyAI","og_description":"As AI systems like large language models (LLMs) grow in size and complexity, researchers are uncovering intriguing fundamental limitations.\u00a0","og_url":"https:\/\/dailyai.com\/nl\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","og_site_name":"DailyAI","article_published_time":"2024-02-27T18:58:26+00:00","article_modified_time":"2024-03-28T00:37:55+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Geschreven door":"Sam Jeans","Geschatte leestijd":"7 minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Generative AI systems, hallucinations, and mounting technical debt","datePublished":"2024-02-27T18:58:26+00:00","dateModified":"2024-03-28T00:37:55+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"},"wordCount":1569,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","keywords":["Hallucinations","LLMS"],"articleSection":{"1":"Industry"},"inLanguage":"nl-NL"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","url":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/","name":"Generatieve AI-systemen, hallucinaties en een stijgende technische schuld | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","datePublished":"2024-02-27T18:58:26+00:00","dateModified":"2024-03-28T00:37:55+00:00","description":"Naarmate AI-systemen zoals grote taalmodellen (LLM's) groter en complexer worden, ontdekken onderzoekers intrigerende fundamentele beperkingen.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#breadcrumb"},"inLanguage":"nl-NL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/"]}]},{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_2146674289.jpg","width":1000,"height":667,"caption":"technical debt AI"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/02\/generative-ai-systems-hallucinations-and-mounting-technical-debt\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Generative AI systems, hallucinations, and mounting technical debt"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Uw dagelijkse dosis AI-nieuws","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nl-NL"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nl\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10342","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/comments?post=10342"}],"version-history":[{"count":11,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10342\/revisions"}],"predecessor-version":[{"id":10427,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10342\/revisions\/10427"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media\/10364"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media?parent=10342"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/categories?post=10342"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/tags?post=10342"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}