{"id":13035,"date":"2024-06-24T10:53:44","date_gmt":"2024-06-24T10:53:44","guid":{"rendered":"https:\/\/dailyai.com\/?p=13035"},"modified":"2024-07-22T15:23:53","modified_gmt":"2024-07-22T15:23:53","slug":"the-rise-of-open-source-ai-models-transparency-and-accountability-in-question","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","title":{"rendered":"Fremveksten av AI-modeller med \u00e5pen kildekode: \u00e5penhet og ansvarlighet i fare"},"content":{"rendered":"<p><b>Etter hvert som den generative AI-\u00e6raen skrider frem, har et bredt spekter av selskaper meldt seg p\u00e5 i kampen, og selve modellene har blitt stadig mer varierte.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Midt i denne AI-boomen har mange selskaper fremhevet modellene sine som \"\u00e5pen kildekode\", men hva betyr dette egentlig i praksis?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Begrepet \u00e5pen kildekode har sine r\u00f8tter i programvareutviklingsmilj\u00f8et. Tradisjonell programvare med \u00e5pen kildekode gj\u00f8r kildekoden fritt tilgjengelig for alle, slik at alle kan se, endre og distribuere den.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\u00c5pen kildekode er i bunn og grunn en samarbeidsform for kunnskapsdeling som drives av programvareinnovasjon, noe som har f\u00f8rt til utvikling av blant annet operativsystemet Linux, nettleseren Firefox og programmeringsspr\u00e5ket Python.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det er imidlertid langt fra enkelt \u00e5 anvende \u00e5pen kildekode-etikken p\u00e5 dagens massive AI-modeller.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Disse systemene trenes ofte opp p\u00e5 enorme datasett som inneholder terabytes eller petabytes med data, ved hjelp av komplekse nevrale nettverksarkitekturer med milliarder av parametere. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dataressursene som kreves, koster millioner av dollar, talentene er f\u00e5, og immaterielle rettigheter er ofte godt beskyttet.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dette kan vi observere i OpenAI, som, som navnet antyder, tidligere var et AI-forskningslaboratorium som i stor grad var dedikert til \u00e5pen forskning.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Det er imidlertid <a href=\"https:\/\/dailyai.com\/nb\/2024\/01\/openai-drifts-further-from-its-namesake-and-founding-principles\/\">etos raskt erodert<\/a> da selskapet luktet penger og trengte \u00e5 tiltrekke seg investeringer for \u00e5 n\u00e5 sine m\u00e5l. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvorfor er det slik? Fordi \u00e5pen kildekode-produkter ikke er innrettet mot profitt, og kunstig intelligens er dyrt og verdifullt.\u00a0<\/span><\/p>\n<p>Etter hvert som generativ AI har eksplodert, har imidlertid selskaper som Mistral, Meta, BLOOM og xAI lansert modeller med \u00e5pen kildekode for \u00e5 fremme forskningen, samtidig som de hindrer selskaper som Microsoft og Google i \u00e5 f\u00e5 for stor innflytelse.<\/p>\n<p>Men hvor mange av disse modellene er egentlig \u00e5pen kildekode, og ikke bare av navn?<\/p>\n<h2>Klargj\u00f8re hvor \u00e5pne modeller med \u00e5pen kildekode egentlig er<\/h2>\n<p><span style=\"font-weight: 400;\">I en nylig publisert <\/span><a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">studie<\/span><\/a><span style=\"font-weight: 400;\">I en ny studie har forskerne Mark Dingemanse og Andreas Liesenfeld fra Radboud University i Nederland analysert en rekke fremtredende AI-modeller for \u00e5 unders\u00f8ke hvor \u00e5pne de er. De studerte flere kriterier, for eksempel tilgjengeligheten av kildekode, treningsdata, modellvekter, forskningsartikler og API-er.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">For eksempel viste det seg at Metas LLaMA-modell og Googles Gemma rett og slett var \"\u00e5pen vekt\" - noe som betyr at den trente modellen er offentlig tilgjengelig for bruk uten full \u00e5penhet om koden, oppl\u00e6ringsprosessen, dataene og finjusteringsmetodene.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I den andre enden av spekteret fremhevet forskerne BLOOM, en stor flerspr\u00e5klig modell som er utviklet av et samarbeid mellom over 1000 forskere over hele verden, som et eksempel p\u00e5 ekte \u00e5pen kildekode-AI. Hvert eneste element i modellen er fritt tilgjengelig for inspeksjon og videre forskning.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Artikkelen vurderte mer enn 30 modeller (b\u00e5de tekst og bilde), men disse viser den enorme variasjonen blant de som hevder \u00e5 v\u00e6re \u00e5pen kildekode:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>BloomZ (BigScience)<\/b><span style=\"font-weight: 400;\">: Helt \u00e5pen p\u00e5 tvers av alle kriterier, inkludert kode, treningsdata, modellvekter, forskningsartikler og API. Fremhevet som et eksempel p\u00e5 AI med \u00e5pen kildekode.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>OLMo (Allen Institute for AI):<\/b><span style=\"font-weight: 400;\"> \u00c5pen kode, treningsdata, vekter og forskningsartikler. API bare delvis \u00e5pent.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Mistral 7B-Instruct (Mistral AI)<\/b><span style=\"font-weight: 400;\">: \u00c5pne modellvekter og API. Kode og forskningsartikler bare delvis \u00e5pne. Treningsdata utilgjengelig.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Orca 2 (Microsoft)<\/b><span style=\"font-weight: 400;\">: Delvis \u00e5pne modellvekter og forskningsartikler. Kode, oppl\u00e6ringsdata og API lukket.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Gemma 7B instruksjon (Google)<\/b><span style=\"font-weight: 400;\">: Delvis \u00e5pen kode og vekter. Oppl\u00e6ringsdata, forskningsartikler og API lukket. Beskrevet som \"\u00e5pen\" av Google i stedet for \"\u00e5pen kildekode\".<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Llama 3 Instruksjon (Meta)<\/b><span style=\"font-weight: 400;\">: Delvis \u00e5pne vekter. Kode, treningsdata, forskningsartikler og API lukket. Et eksempel p\u00e5 en \"\u00e5pen vekt\"-modell uten full \u00e5penhet.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_13037\" aria-describedby=\"caption-attachment-13037\" style=\"width: 928px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-13037 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png\" alt=\"AI med \u00e5pen kildekode\" width=\"928\" height=\"1024\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png 928w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-272x300.png 272w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-768x847.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-11x12.png 11w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-60x66.png 60w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource.png 931w\" sizes=\"auto, (max-width: 928px) 100vw, 928px\" \/><figcaption id=\"caption-attachment-13037\" class=\"wp-caption-text\">En omfattende oversikt over hvor \u00e5pen kildekode ulike AI-modeller er. Kilde: <a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\">ACM Digital Library<\/a> (\u00e5pen tilgang)<\/figcaption><\/figure>\n<h2>Mangel p\u00e5 \u00e5penhet<\/h2>\n<p class=\"whitespace-pre-wrap break-words\">Mangelen p\u00e5 \u00e5penhet rundt AI-modeller, spesielt de som er utviklet av store teknologiselskaper, gir grunn til alvorlig bekymring n\u00e5r det gjelder ansvarlighet og tilsyn.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Uten full tilgang til modellens kode, treningsdata og andre n\u00f8kkelkomponenter blir det ekstremt utfordrende \u00e5 forst\u00e5 hvordan disse modellene fungerer og tar beslutninger. Dette gj\u00f8r det vanskelig \u00e5 identifisere og h\u00e5ndtere potensielle skjevheter, feil eller misbruk av opphavsrettslig beskyttet materiale.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Brudd p\u00e5 opphavsretten i AI-treningsdata er et godt eksempel p\u00e5 problemene som oppst\u00e5r som f\u00f8lge av denne mangelen p\u00e5 \u00e5penhet. Mange propriet\u00e6re AI-modeller, som GPT-3.5\/4\/40\/Claude 3\/Gemini, er sannsynligvis trent p\u00e5 opphavsrettslig beskyttet materiale.<\/p>\n<p><span style=\"font-weight: 400;\">Men siden oppl\u00e6ringsdataene oppbevares under l\u00e5s og sl\u00e5, er det nesten umulig \u00e5 identifisere spesifikke data i dette materialet.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">New York Times' <a href=\"https:\/\/dailyai.com\/nb\/2024\/02\/openai-blasts-the-new-york-times-claiming-they-hacked-their-evidence\/\">nylig s\u00f8ksm\u00e5l<\/a> mot OpenAI viser hvilke konsekvenser denne utfordringen kan f\u00e5 i den virkelige verden. <\/span><span style=\"font-weight: 400;\">OpenAI anklaget NYT for \u00e5 ha brukt prompt engineering-angrep for \u00e5 eksponere treningsdata og lokke ChatGPT til \u00e5 gjengi artiklene ordrett, og dermed bevise at OpenAIs treningsdata inneholder opphavsrettslig beskyttet materiale.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"The Times betalte noen for \u00e5 hacke OpenAIs produkter\", uttalte OpenAI.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ian Crosby, NYTs juridiske r\u00e5dgiver, svarte: \"Det OpenAI p\u00e5 merkelig vis feilaktig karakteriserer som 'hacking', er ganske enkelt \u00e5 bruke OpenAIs produkter til \u00e5 lete etter bevis p\u00e5 at de har stj\u00e5let og reprodusert The Times' opphavsrettsbeskyttede verk. Og det er akkurat det vi fant.\"<\/span><\/p>\n<p>Dette er bare ett eksempel fra en stor bunke s\u00f8ksm\u00e5l som for \u00f8yeblikket er blokkert, delvis p\u00e5 grunn av AI-modellenes ugjennomsiktige og ugjennomtrengelige natur.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Dette er bare toppen av isfjellet. Uten robuste tiltak for \u00e5penhet og ansvarlighet risikerer vi en fremtid der uforklarlige AI-systemer tar beslutninger som har stor innvirkning p\u00e5 livene v\u00e5re, \u00f8konomien og samfunnet, men som ikke blir gransket.<\/p>\n<h2>Oppfordrer til \u00e5penhet<\/h2>\n<p><span style=\"font-weight: 400;\">Det har v\u00e6rt oppfordringer til selskaper som Google og OpenAI om \u00e5 <\/span><a href=\"https:\/\/dailyai.com\/nb\/2023\/09\/the-uk-government-wants-to-see-inside-ais-black-box\/\"><span style=\"font-weight: 400;\">gi tilgang til modellenes indre funksjoner<\/span><\/a><span style=\"font-weight: 400;\"> i forbindelse med sikkerhetsevaluering. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sannheten er imidlertid at selv AI-selskaper ikke helt forst\u00e5r hvordan modellene deres fungerer.\u00a0<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Dette kalles \"black box\"-problemet, som oppst\u00e5r n\u00e5r man pr\u00f8ver \u00e5 tolke og forklare modellens spesifikke beslutninger p\u00e5 en m\u00e5te som er forst\u00e5elig for mennesker.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">En utvikler kan for eksempel vite at en dyp l\u00e6ringsmodell er n\u00f8yaktig og gir gode resultater, men de kan slite med \u00e5 finne ut n\u00f8yaktig hvilke funksjoner modellen bruker for \u00e5 ta sine beslutninger.<\/p>\n<p><span style=\"font-weight: 400;\">Anthropic, som har utviklet Claude-modellene, har nylig <\/span><a href=\"https:\/\/dailyai.com\/nb\/2024\/05\/decoding-the-ai-mind-anthropic-researchers-peer-inside-the-black-box\/\"><span style=\"font-weight: 400;\">gjennomf\u00f8rte et eksperiment<\/span><\/a><span style=\"font-weight: 400;\"> for \u00e5 identifisere hvordan Claude 3 Sonnet fungerer, og forklarer: \"Vi behandler stort sett AI-modeller som en svart boks: Noe g\u00e5r inn og et svar kommer ut, og det er ikke klart hvorfor modellen ga akkurat det svaret i stedet for et annet. Dette gj\u00f8r det vanskelig \u00e5 stole p\u00e5 at disse modellene er trygge: Hvis vi ikke vet hvordan de fungerer, hvordan kan vi da vite at de ikke gir skadelige, partiske, usanne eller p\u00e5 annen m\u00e5te farlige svar? Hvordan kan vi stole p\u00e5 at de er trygge og p\u00e5litelige?\"<\/span><\/p>\n<p>Det er egentlig en ganske bemerkelsesverdig innr\u00f8mmelse at skaperen av en teknologi ikke forst\u00e5r produktet sitt i AI-\u00e6raen.<\/p>\n<p><span style=\"font-weight: 400;\">Dette antropiske eksperimentet illustrerte at det er en usedvanlig vanskelig oppgave \u00e5 forklare resultater objektivt. <\/span><span style=\"font-weight: 400;\">Anthropic anslo faktisk at det ville kreve mer datakraft \u00e5 \"\u00e5pne den svarte boksen\" enn \u00e5 trene opp selve modellen!<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Utviklere fors\u00f8ker aktivt \u00e5 bekjempe black-box-problemet gjennom forskning som \"Explainable AI\" (XAI), som tar sikte p\u00e5 \u00e5 utvikle teknikker og verkt\u00f8y for \u00e5 gj\u00f8re AI-modeller mer transparente og tolkbare.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">XAI-metoder s\u00f8ker \u00e5 gi innsikt i modellens beslutningsprosess, fremheve de mest innflytelsesrike funksjonene og generere forklaringer som kan leses av mennesker. XAI har allerede blitt brukt p\u00e5 modeller som brukes i <a href=\"https:\/\/dailyai.com\/nb\/2024\/01\/researchers-aim-to-determine-how-black-box-drug-discovery-models-work\/\">bruksomr\u00e5der som legemiddelutvikling<\/a>hvor det \u00e5 forst\u00e5 hvordan en modell fungerer, kan v\u00e6re avgj\u00f8rende for sikkerheten.<\/p>\n<p>Initiativer med \u00e5pen kildekode er avgj\u00f8rende for XAI og annen forskning som s\u00f8ker \u00e5 trenge gjennom den svarte boksen og gi innsyn i AI-modeller.<\/p>\n<p>Uten tilgang til modellens kode, treningsdata og andre n\u00f8kkelkomponenter kan forskerne ikke utvikle og teste teknikker for \u00e5 forklare hvordan AI-systemer virkelig fungerer og identifisere spesifikke data de er trent opp p\u00e5.<\/p>\n<h2>Regelverket kan gj\u00f8re situasjonen for \u00e5pen kildekode enda mer uoversiktlig<\/h2>\n<p><span style=\"font-weight: 400;\">Den europeiske unions <\/span><a href=\"https:\/\/dailyai.com\/nb\/2024\/03\/the-eu-ai-act-passed-in-a-landslide-and-will-come-into-force-this-year\/\"><span style=\"font-weight: 400;\">nylig vedtatt AI Act<\/span><\/a><span style=\"font-weight: 400;\"> er i ferd med \u00e5 innf\u00f8re nye regler for AI-systemer, med bestemmelser som spesifikt tar for seg modeller med \u00e5pen kildekode.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I henhold til loven vil generelle modeller med \u00e5pen kildekode opp til en viss st\u00f8rrelse v\u00e6re unntatt fra omfattende krav til \u00e5penhet.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Men som Dingemanse og Liesenfeld p\u00e5peker i sin studie, er den n\u00f8yaktige definisjonen av \"\u00e5pen kildekode-KI\" i henhold til AI-loven fortsatt uklar og kan bli et stridspunkt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Loven definerer i dag modeller med \u00e5pen kildekode som modeller som er utgitt under en \"fri og \u00e5pen\" lisens som gir brukerne mulighet til \u00e5 endre modellen. Den spesifiserer likevel ikke krav til tilgang til treningsdata eller andre n\u00f8kkelkomponenter.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Denne tvetydigheten gir rom for tolkning og potensiell lobbyvirksomhet fra bedriftsinteresser. Forskerne advarer om at en presisering av definisjonen av \u00e5pen kildekode i AI-loven \"sannsynligvis vil utgj\u00f8re et enkelt trykkpunkt som vil bli et m\u00e5l for bedriftslobbyer og store selskaper\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Uten klare, robuste kriterier for hva som utgj\u00f8r virkelig \u00e5pen kildekode-KI, er det en risiko for at regelverket utilsiktet kan skape smutthull eller insentiver for selskaper til \u00e5 drive med \"open-washing\" - \u00e5 hevde \u00e5penhet for \u00e5 oppn\u00e5 juridiske og PR-messige fordeler, samtidig som viktige aspekter ved modellene deres fortsatt er propriet\u00e6re.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Den globale karakteren til AI-utviklingen betyr dessuten at ulike regelverk p\u00e5 tvers av jurisdiksjoner kan komplisere landskapet ytterligere.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hvis store AI-produsenter som USA og Kina har ulike tiln\u00e6rminger til krav om \u00e5penhet og innsyn, kan det f\u00f8re til et fragmentert \u00f8kosystem der graden av \u00e5penhet varierer mye avhengig av hvor en modell kommer fra.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forfatterne av studien understreker behovet for at lovgiverne samarbeider tett med forskningsmilj\u00f8er og andre interessenter for \u00e5 sikre at eventuelle bestemmelser om \u00e5pen kildekode i AI-lovgivningen bygger p\u00e5 en dyp forst\u00e5else av teknologien og prinsippene for \u00e5penhet.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Som Dingemanse og Liesenfeld konkluderer i en <\/span><a href=\"https:\/\/www.nature.com\/articles\/d41586-024-02012-5\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">diskusjon med naturen<\/span><\/a><span style=\"font-weight: 400;\">\"Det er rimelig \u00e5 si at begrepet \u00e5pen kildekode vil f\u00e5 en helt ny juridisk tyngde i de landene som omfattes av EUs AI Act.\"<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Hvordan dette utspiller seg i praksis, vil ha stor betydning for den fremtidige retningen for forskning p\u00e5 og bruk av kunstig intelligens.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>I takt med at den generative AI-\u00e6raen har kommet, har et bredt spekter av selskaper meldt seg p\u00e5 i kampen, og selve modellene har blitt stadig mer varierte.  Midt i denne AI-boomen har mange selskaper fremhevet modellene sine som \"\u00e5pen kildekode\", men hva betyr dette egentlig i praksis? Begrepet \u00e5pen kildekode har sine r\u00f8tter i programvareutviklingsmilj\u00f8et. Tradisjonell programvare med \u00e5pen kildekode gj\u00f8r kildekoden fritt tilgjengelig for alle, slik at alle kan se, endre og distribuere den.  I bunn og grunn er \u00e5pen kildekode en samarbeidsform for kunnskapsdeling som drives av programvareinnovasjon, noe som har f\u00f8rt til utviklinger som operativsystemet Linux og nettleseren Firefox,<\/p>","protected":false},"author":2,"featured_media":13054,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[105,110],"class_list":["post-13035","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-machine-learning","tag-open-source"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI<\/title>\n<meta name=\"description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI\" \/>\n<meta property=\"og:description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-06-24T10:53:44+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-22T15:23:53+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"wordCount\":1607,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"keywords\":[\"machine learning\",\"Open-source\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"name\":\"The rise of 'open source' AI models: transparency and accountability in question | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"description\":\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"width\":1792,\"height\":1024,\"caption\":\"Open-source AI\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Fremveksten av AI-modeller med \u00e5pen kildekode: sp\u00f8rsm\u00e5l om \u00e5penhet og ansvarlighet | DailyAI","description":"Etter hvert som den generative AI-\u00e6raen skrider frem, har et bredt spekter av selskaper meldt seg p\u00e5 i kampen, og selve modellene har blitt stadig mer varierte.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_locale":"nb_NO","og_type":"article","og_title":"The rise of 'open source' AI models: transparency and accountability in question | DailyAI","og_description":"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0","og_url":"https:\/\/dailyai.com\/nb\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_site_name":"DailyAI","article_published_time":"2024-06-24T10:53:44+00:00","article_modified_time":"2024-07-22T15:23:53+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","type":"image\/webp"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"8 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"wordCount":1607,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","keywords":["machine learning","Open-source"],"articleSection":{"1":"Industry"},"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","url":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","name":"Fremveksten av AI-modeller med \u00e5pen kildekode: sp\u00f8rsm\u00e5l om \u00e5penhet og ansvarlighet | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","description":"Etter hvert som den generative AI-\u00e6raen skrider frem, har et bredt spekter av selskaper meldt seg p\u00e5 i kampen, og selve modellene har blitt stadig mer varierte.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","width":1792,"height":1024,"caption":"Open-source AI"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/13035","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=13035"}],"version-history":[{"count":14,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/13035\/revisions"}],"predecessor-version":[{"id":13548,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/13035\/revisions\/13548"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/13054"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=13035"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=13035"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=13035"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}