{"id":10866,"date":"2024-03-22T10:03:11","date_gmt":"2024-03-22T10:03:11","guid":{"rendered":"https:\/\/dailyai.com\/?p=10866"},"modified":"2024-03-28T09:32:30","modified_gmt":"2024-03-28T09:32:30","slug":"quiet-star-teaches-language-models-to-think-before-they-speak","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nl\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/","title":{"rendered":"Quiet-STaR leert taalmodellen nadenken voordat ze spreken"},"content":{"rendered":"<p><strong>Onderzoekers van Stanford University en Notbad AI ontwikkelden Quiet-STaR, een techniek die een taalmodel (LM) traint om intern te redeneren voordat het een output genereert.<\/strong><\/p>\n<p>Wanneer mensen spreken, hebben we normaal gesproken een innerlijke dialoog die vorm geeft aan de woorden die we uiteindelijk uitspreken. Hoe meer we nadenken voordat we spreken, hoe beter de kwaliteit van onze gesproken woorden.<\/p>\n<p><a href=\"https:\/\/arxiv.org\/pdf\/2403.09629.pdf\" target=\"_blank\" rel=\"noopener\">In hun artikel<\/a>beschrijven de onderzoekers hoe ze een LM (<a href=\"https:\/\/dailyai.com\/nl\/2024\/02\/mistral-ai-releases-new-model-and-chatbot-to-take-on-gpt-4\/\">Mistral-7B<\/a>) om te leren hoe je dit proces op een algemene manier kunt imiteren. Quiet-STaR is een voortzetting van een andere techniek die STaR heet, oftewel Self-Taught Reasoner.<\/p>\n<p>STaR is een methode om een model te trainen met een paar voorbeelden van vragen met uitleg (rationales) voor de antwoorden. Het model gebruikt deze voorbeelden om te proberen zelf vragen te beantwoorden en zo zelf de rationaliteit te achterhalen.<\/p>\n<p>STaR evalueert of de rationales die het bedenkt wel of niet leiden tot correcte antwoorden en verfijnt de rationales.<\/p>\n<p>Hoe indrukwekkend STaR ook is, zijn vermogen om te redeneren is beperkt tot de vraag-antwoord (QA) contexten tijdens de training. Het doel van Quiet-STaR is om een LM te voorzien van een gegeneraliseerd vermogen om te leren redeneren of rationales te ontwikkelen, over een breder scala aan teksten, niet alleen QA-datasets.<\/p>\n<h2>Hoe werkt Quiet-STaR?<\/h2>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Taalmodellen worden tegenwoordig getraind om ofwel 1) algemeen te redeneren, door online redeneergegevens te imiteren, of 2) beperkt te redeneren, waarbij ze zichzelf hun eigen oplossingen voor specifieke taken aanleren.<\/p>\n<p>Kunnen LM's zichzelf leren redeneren in het algemeen? \ud83c\udf1fIntroductie van Quiet-STaR, zelfleren via interne monoloog! <a href=\"https:\/\/t.co\/WCSxLPZeCX\">pic.twitter.com\/WCSxLPZeCX<\/a><\/p>\n<p>- Eric Zelikman (@ericzelikman) <a href=\"https:\/\/twitter.com\/ericzelikman\/status\/1768663835106513041?ref_src=twsrc%5Etfw\">15 maart 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Een van de belangrijkste innovaties in Quiet-STaR is dat het parallel rationalisaties, of gedachten, genereert die alle tokens in de tekst die verwerkt wordt volgen. Het voert deze redeneringen niet uit, vandaar het \"Quiet\" deel van de naam van het algoritme.<\/p>\n<p>Het algoritme verwerkt de rationaliteiten door een \"mengkop\". Elke rationale wordt ge\u00ebvalueerd op basis van de nauwkeurigheid van de voorspelling van het volgende token in vergelijking met de voorspelling van het basismodel.<\/p>\n<p>Als het basismodel (zonder Quiet-STaR) een betere voorspelling oplevert, dan was de reden geen goede. Als de reden resulteert in een nauwkeurigere voorspelling van de volgende token, dan weet het algoritme dat het goed bezig is.<\/p>\n<p>Vervolgens gebruikt het een algoritme voor versterkingsleren (REINFORCE) om te leren welke rationaliteiten helpen en welke de prestaties van het model belemmeren. Het resultaat is dat het model een gegeneraliseerd denkvermogen leert voordat het de volgende token voorspelt.<\/p>\n<h2>Resultaten Quiet-STaR<\/h2>\n<p>De onderzoekers testten het Quiet-STaR getrainde Mistral-7B model op de GSM8K wiskunde en CommonsenseQA gezond verstand redeneer benchmarks. Ze ontdekten dat Quiet-STaR de perplexiteit en zero-shot directe redeneervaardigheden verbeterde op zowel CommonsenseQA (36,3% tot 47,2%) als GSM8K (5,9% tot 10,9%) benchmarks.<\/p>\n<figure id=\"attachment_10868\" aria-describedby=\"caption-attachment-10868\" style=\"width: 1334px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-10868\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results.jpg\" alt=\"\" width=\"1334\" height=\"518\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results.jpg 1334w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-300x116.jpg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-1024x398.jpg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-768x298.jpg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-370x144.jpg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-800x311.jpg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-740x287.jpg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-20x8.jpg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/Quiet-STaR-benchmark-results-124x48.jpg 124w\" sizes=\"auto, (max-width: 1334px) 100vw, 1334px\" \/><figcaption id=\"caption-attachment-10868\" class=\"wp-caption-text\">Resultaten van Quiet-STaR voor GMSK8 wiskunde op de basisschool en CommonsenseQA redeneerbenchmarks voor gezond verstand. Elke lijn vertegenwoordigt een iteratie van Quiet-STaR met verschillende gedachte token lengtes, en hoeveel tokens vooruit het redeneerde. De basislijn is Mistral-7B zonder Quiet-STaR. Bron: arXiv<\/figcaption><\/figure>\n<p>Hoewel de wiskundige redenering van Mistral-7B nog steeds niet geweldig is, leverde Quiet-STaR een verbetering van bijna 85% ten opzichte van het basismodel, en dat zonder enige dataset-specifieke fijnafstelling.\"<\/p>\n<p>De testresultaten toonden ook aan dat verbeteringen in de prestaties direct gerelateerd waren aan het aantal tokens dat werd toegewezen aan de interne gedachten van het model. Hoe meer het model nadacht voordat het antwoordde, hoe beter het antwoord.<\/p>\n<p>Deze verbeteringen gaan ten koste van een aanzienlijke computeroverhead. De innerlijke monoloog die het model voert tijdens het denkproces genereert veel tokens.<\/p>\n<p>Verbeteringen in hardware zullen uiteindelijk de extra overhead die gepaard gaat met technieken als deze minder belangrijk maken.<\/p>\n<p>De onderzoekers concluderen dat toekomstig werk aan het optimaliseren van Quiet-STaR ook zou kunnen helpen. Dynamisch voorspellen of een denkproces nodig is, of hoe lang het zou moeten duren, zou het aantal onnodige gedachten kunnen verminderen.<\/p>\n<p>De resultaten van het trainen van een klein model als Mistral-7B met Quiet-STaR zijn veelbelovend. De onderzoekers geloven dat \"dezelfde technieken toegepast op een beter model waarschijnlijk onevenredig betere resultaten zouden opleveren.\"<\/p>\n<h2>Ethische vragen<\/h2>\n<p>Een taalmodel meer laten redeneren als een mens brengt een aantal interessante problemen en ethische vragen met zich mee.<\/p>\n<p>De onderzoekers merken op dat \"het onmogelijk is om te weten of de redenering die door het model in taal wordt uitgedrukt, de interne verwerking van het model accuraat weergeeft.\" De redeneringen die het model genereert zijn natuurlijke taalrepresentaties van zijn innerlijke redeneringen. Zijn ze een accurate weergave?<\/p>\n<p>Ze merken verder op dat \"er geen garanties zijn tegen schadelijke of bevooroordeelde redeneerpatronen als het model ze nuttig vindt.\"<\/p>\n<p>We kunnen blij zijn met het antwoord van een AI-model, maar we zijn misschien niet blij met, of begrijpen zelfs niet het denkproces dat dit antwoord heeft opgeleverd.<\/p>\n<p>Een van de hoofdauteurs van de paper, Eric Zelikman, heeft zich deze week aangesloten bij xAI van Elon Musk. Hij vindt misschien dat <a href=\"https:\/\/dailyai.com\/nl\/2024\/03\/elon-musks-xai-open-sources-its-llm-grok-1\/\">Grok<\/a> houdt zich minder bezig met deze ethische vragen en is meer enthousiast over het vooruitzicht van AI-vooruitgang.<\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>Onderzoekers van Stanford University en Notbad AI ontwikkelden Quiet-STaR, een techniek die een taalmodel (LM) traint om intern te redeneren voordat het een output genereert. Wanneer mensen spreken, hebben we normaal gesproken een innerlijke dialoog die vorm geeft aan de woorden die we uiteindelijk uitspreken. Hoe meer we nadenken voordat we spreken, hoe beter de kwaliteit van onze gesproken woorden. In hun artikel beschrijven de onderzoekers hoe ze een LM (Mistral-7B) hebben getraind om dit proces op een algemene manier te leren imiteren. Quiet-STaR is een voortzetting van een andere techniek genaamd STaR, of Self-Taught Reasoner. STaR is een methode om een model te trainen met een paar<\/p>","protected":false},"author":6,"featured_media":10869,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[118],"class_list":["post-10866","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-llms"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Quiet-STaR teaches language models to think before they speak | DailyAI<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nl\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/\" \/>\n<meta property=\"og:locale\" content=\"nl_NL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Quiet-STaR teaches language models to think before they speak | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Researchers from Stanford University and Notbad AI developed Quiet-STaR, a technique that trains a language model (LM) to reason internally before generating an output. When humans speak, we normally have an inner dialogue that shapes the words we eventually verbalize. The more we think before speaking, the better the quality of our spoken words. In their paper, the researchers describe how they trained an LM (Mistral-7B) to learn how to imitate this process in a generalized way. Quiet-STaR is a progression of another technique called STaR, or Self-Taught Reasoner. STaR is a method of training a model with a few\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nl\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-03-22T10:03:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T09:32:30+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Eugene van der Watt\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Geschreven door\" \/>\n\t<meta name=\"twitter:data1\" content=\"Eugene van der Watt\" \/>\n\t<meta name=\"twitter:label2\" content=\"Geschatte leestijd\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/\"},\"author\":{\"name\":\"Eugene van der Watt\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\"},\"headline\":\"Quiet-STaR teaches language models to think before they speak\",\"datePublished\":\"2024-03-22T10:03:11+00:00\",\"dateModified\":\"2024-03-28T09:32:30+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/\"},\"wordCount\":808,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/03\\\/the-thinker.webp\",\"keywords\":[\"LLMS\"],\"articleSection\":[\"Industry\"],\"inLanguage\":\"nl-NL\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/\",\"name\":\"Quiet-STaR teaches language models to think before they speak | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/03\\\/the-thinker.webp\",\"datePublished\":\"2024-03-22T10:03:11+00:00\",\"dateModified\":\"2024-03-28T09:32:30+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#breadcrumb\"},\"inLanguage\":\"nl-NL\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/03\\\/the-thinker.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/03\\\/the-thinker.webp\",\"width\":1792,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/03\\\/quiet-star-teaches-language-models-to-think-before-they-speak\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Quiet-STaR teaches language models to think before they speak\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nl-NL\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\",\"name\":\"Eugene van der Watt\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nl-NL\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"caption\":\"Eugene van der Watt\"},\"description\":\"Eugene comes from an electronic engineering background and loves all things tech. When he takes a break from consuming AI news you'll find him at the snooker table.\",\"sameAs\":[\"www.linkedin.com\\\/in\\\/eugene-van-der-watt-16828119\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nl\\\/author\\\/eugene\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Quiet-STaR leert taalmodellen nadenken voordat ze spreken | DailyAI","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nl\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/","og_locale":"nl_NL","og_type":"article","og_title":"Quiet-STaR teaches language models to think before they speak | DailyAI","og_description":"Researchers from Stanford University and Notbad AI developed Quiet-STaR, a technique that trains a language model (LM) to reason internally before generating an output. When humans speak, we normally have an inner dialogue that shapes the words we eventually verbalize. The more we think before speaking, the better the quality of our spoken words. In their paper, the researchers describe how they trained an LM (Mistral-7B) to learn how to imitate this process in a generalized way. Quiet-STaR is a progression of another technique called STaR, or Self-Taught Reasoner. STaR is a method of training a model with a few","og_url":"https:\/\/dailyai.com\/nl\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/","og_site_name":"DailyAI","article_published_time":"2024-03-22T10:03:11+00:00","article_modified_time":"2024-03-28T09:32:30+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp","type":"image\/webp"}],"author":"Eugene van der Watt","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Geschreven door":"Eugene van der Watt","Geschatte leestijd":"4 minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/"},"author":{"name":"Eugene van der Watt","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa"},"headline":"Quiet-STaR teaches language models to think before they speak","datePublished":"2024-03-22T10:03:11+00:00","dateModified":"2024-03-28T09:32:30+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/"},"wordCount":808,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp","keywords":["LLMS"],"articleSection":["Industry"],"inLanguage":"nl-NL"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/","url":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/","name":"Quiet-STaR leert taalmodellen nadenken voordat ze spreken | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp","datePublished":"2024-03-22T10:03:11+00:00","dateModified":"2024-03-28T09:32:30+00:00","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#breadcrumb"},"inLanguage":"nl-NL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/"]}]},{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/03\/the-thinker.webp","width":1792,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/03\/quiet-star-teaches-language-models-to-think-before-they-speak\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Quiet-STaR teaches language models to think before they speak"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Uw dagelijkse dosis AI-nieuws","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nl-NL"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa","name":"Eugene van der Watt","image":{"@type":"ImageObject","inLanguage":"nl-NL","@id":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","caption":"Eugene van der Watt"},"description":"Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.","sameAs":["www.linkedin.com\/in\/eugene-van-der-watt-16828119"],"url":"https:\/\/dailyai.com\/nl\/author\/eugene\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10866","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/comments?post=10866"}],"version-history":[{"count":5,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10866\/revisions"}],"predecessor-version":[{"id":10873,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/posts\/10866\/revisions\/10873"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media\/10869"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/media?parent=10866"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/categories?post=10866"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nl\/wp-json\/wp\/v2\/tags?post=10866"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}