{"id":13035,"date":"2024-06-24T10:53:44","date_gmt":"2024-06-24T10:53:44","guid":{"rendered":"https:\/\/dailyai.com\/?p=13035"},"modified":"2024-07-22T15:23:53","modified_gmt":"2024-07-22T15:23:53","slug":"the-rise-of-open-source-ai-models-transparency-and-accountability-in-question","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","title":{"rendered":"L'ascesa dei modelli di IA \"open source\": trasparenza e responsabilit\u00e0 in discussione"},"content":{"rendered":"<p><b>Con l'avanzare dell'era dell'IA generativa, un'ampia gamma di aziende si \u00e8 unita alla mischia e i modelli stessi sono diventati sempre pi\u00f9 diversi.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">In questo boom dell'IA, molte aziende hanno pubblicizzato i loro modelli come \"open source\", ma cosa significa davvero nella pratica?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il concetto di open source affonda le sue radici nella comunit\u00e0 degli sviluppatori di software. Il software open source tradizionale rende il codice sorgente liberamente disponibile a chiunque per la visualizzazione, la modifica e la distribuzione.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In sostanza, l'open-source \u00e8 un dispositivo di condivisione collaborativa delle conoscenze alimentato dall'innovazione del software, che ha portato a sviluppi come il sistema operativo Linux, il browser web Firefox e il linguaggio di programmazione Python.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, l'applicazione dell'etica open-source agli attuali modelli di intelligenza artificiale di massa \u00e8 tutt'altro che semplice.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questi sistemi sono spesso addestrati su vasti set di dati contenenti terabyte o petabyte di dati, utilizzando complesse architetture di reti neurali con miliardi di parametri. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le risorse informatiche necessarie costano milioni di dollari, i talenti sono scarsi e la propriet\u00e0 intellettuale \u00e8 spesso ben protetta.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Lo possiamo osservare in OpenAI, che, come suggerisce il nome, era un laboratorio di ricerca sull'intelligenza artificiale dedicato in gran parte all'etica della ricerca aperta.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, questo <a href=\"https:\/\/dailyai.com\/it\/2024\/01\/openai-drifts-further-from-its-namesake-and-founding-principles\/\">etica rapidamente erosa<\/a> una volta che l'azienda ha sentito l'odore dei soldi e ha avuto bisogno di attrarre investimenti per alimentare i suoi obiettivi. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Perch\u00e9? Perch\u00e9 i prodotti open-source non sono orientati al profitto e l'intelligenza artificiale \u00e8 costosa e preziosa.\u00a0<\/span><\/p>\n<p>Tuttavia, con l'esplosione dell'IA generativa, aziende come Mistral, Meta, BLOOM e xAI stanno rilasciando modelli open-source per favorire la ricerca, impedendo al contempo ad aziende come Microsoft e Google di accaparrarsi troppa influenza.<\/p>\n<p>Ma quanti di questi modelli sono veramente open-source, e non solo di nome?<\/p>\n<h2>Chiarire quanto siano realmente aperti i modelli open-source<\/h2>\n<p><span style=\"font-weight: 400;\">In un recente <\/span><a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">studio<\/span><\/a><span style=\"font-weight: 400;\">, i ricercatori Mark Dingemanse e Andreas Liesenfeld dell'Universit\u00e0 Radboud, nei Paesi Bassi, hanno analizzato numerosi modelli di IA di primo piano per capire quanto siano aperti. Hanno studiato diversi criteri, come la disponibilit\u00e0 di codice sorgente, dati di addestramento, pesi del modello, documenti di ricerca e API.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, il modello LLaMA di Meta e Gemma di Google sono risultati semplicemente \"a peso aperto\", il che significa che il modello addestrato viene rilasciato pubblicamente per l'uso senza la piena trasparenza del codice, del processo di addestramento, dei dati e dei metodi di messa a punto.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">All'altro capo dello spettro, i ricercatori hanno evidenziato BLOOM, un grande modello multilingue sviluppato da una collaborazione di oltre 1.000 ricercatori in tutto il mondo, come un esempio di vera IA open-source. Ogni elemento del modello \u00e8 liberamente accessibile per l'ispezione e per ulteriori ricerche.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il documento ha valutato pi\u00f9 di 30 modelli (sia di testo che di immagine), ma questi dimostrano l'immensa variazione all'interno di quelli che dichiarano di essere open-source:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>BloomZ (BigScience)<\/b><span style=\"font-weight: 400;\">: Completamente aperto in tutti i criteri, compresi codice, dati di addestramento, pesi del modello, documenti di ricerca e API. Evidenziato come esempio di IA veramente open-source.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>OLMo (Allen Institute for AI):<\/b><span style=\"font-weight: 400;\"> Codice, dati di allenamento, pesi e documenti di ricerca aperti. API solo parzialmente aperta.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Mistral 7B-Istruzione (Mistral AI)<\/b><span style=\"font-weight: 400;\">: Pesi e API del modello aperti. Codice e documenti di ricerca solo parzialmente aperti. Dati di formazione non disponibili.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Orca 2 (Microsoft)<\/b><span style=\"font-weight: 400;\">: Pesi del modello e documenti di ricerca parzialmente aperti. Codice, dati di addestramento e API chiusi.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Istruttore Gemma 7B (Google)<\/b><span style=\"font-weight: 400;\">: Codice e pesi parzialmente aperti. Dati di addestramento, documenti di ricerca e API chiusi. Descritto come \"aperto\" da Google piuttosto che come \"open source\".<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Llama 3 Istruttore (Meta)<\/b><span style=\"font-weight: 400;\">: Pesi parzialmente aperti. Codice, dati di allenamento, documenti di ricerca e API chiusi. Un esempio di modello di \"pesi aperti\" senza una maggiore trasparenza.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_13037\" aria-describedby=\"caption-attachment-13037\" style=\"width: 928px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-13037 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png\" alt=\"IA open source\" width=\"928\" height=\"1024\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png 928w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-272x300.png 272w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-768x847.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-11x12.png 11w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-60x66.png 60w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource.png 931w\" sizes=\"auto, (max-width: 928px) 100vw, 928px\" \/><figcaption id=\"caption-attachment-13037\" class=\"wp-caption-text\">Una ripartizione completa di \"quanto sono open source\" i vari modelli di IA. Fonte: <a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\">Biblioteca digitale ACM<\/a> (accesso libero)<\/figcaption><\/figure>\n<h2>Mancanza di trasparenza<\/h2>\n<p class=\"whitespace-pre-wrap break-words\">La mancanza di trasparenza che circonda i modelli di IA, soprattutto quelli sviluppati dalle grandi aziende tecnologiche, solleva serie preoccupazioni in merito alla responsabilit\u00e0 e alla supervisione.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Senza l'accesso completo al codice del modello, ai dati di addestramento e ad altri componenti chiave, diventa estremamente difficile capire come funzionano questi modelli e prendere decisioni. Ci\u00f2 rende difficile identificare e risolvere potenziali distorsioni, errori o uso improprio di materiale protetto da copyright.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">La violazione del copyright nei dati di addestramento dell'IA \u00e8 un esempio lampante dei problemi che derivano da questa mancanza di trasparenza. Molti modelli di IA proprietari, come GPT-3.5\/4\/40\/Claude 3\/Gemini, sono probabilmente addestrati su materiale protetto da copyright.<\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, poich\u00e9 i dati di addestramento sono tenuti sotto chiave, l'identificazione di dati specifici all'interno di questo materiale \u00e8 quasi impossibile.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il New York Times <a href=\"https:\/\/dailyai.com\/it\/2024\/02\/openai-blasts-the-new-york-times-claiming-they-hacked-their-evidence\/\">recente causa legale<\/a> contro OpenAI dimostra le conseguenze reali di questa sfida. <\/span><span style=\"font-weight: 400;\">OpenAI ha accusato il NYT di aver utilizzato attacchi di prompt engineering per esporre i dati di addestramento e indurre ChatGPT a riprodurre i suoi articoli alla lettera, dimostrando cos\u00ec che i dati di addestramento di OpenAI contengono materiale protetto da copyright.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Il Times ha pagato qualcuno per hackerare i prodotti di OpenAI\", ha dichiarato OpenAI.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In risposta, Ian Crosby, il principale consulente legale del NYT, ha dichiarato: \"Ci\u00f2 che OpenAI bizzarramente descrive come 'hacking' \u00e8 semplicemente l'utilizzo dei prodotti di OpenAI per cercare le prove del furto e della riproduzione di opere protette da copyright del Times. Ed \u00e8 esattamente quello che abbiamo trovato\".<\/span><\/p>\n<p>In effetti, questo \u00e8 solo un esempio di un'enorme quantit\u00e0 di cause legali che sono attualmente bloccate in parte a causa della natura opaca e impenetrabile dei modelli di IA.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Questa \u00e8 solo la punta dell'iceberg. Senza solide misure di trasparenza e responsabilit\u00e0, rischiamo un futuro in cui sistemi di IA inspiegabili prendono decisioni che hanno un impatto profondo sulle nostre vite, sull'economia e sulla societ\u00e0, ma restano al riparo da ogni controllo.<\/p>\n<h2>Richieste di apertura<\/h2>\n<p><span style=\"font-weight: 400;\">Sono stati lanciati appelli ad aziende come Google e OpenAI affinch\u00e9 <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/09\/the-uk-government-wants-to-see-inside-ais-black-box\/\"><span style=\"font-weight: 400;\">concedere l'accesso al funzionamento interno dei loro modelli<\/span><\/a><span style=\"font-weight: 400;\"> ai fini della valutazione della sicurezza. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, la verit\u00e0 \u00e8 che nemmeno le aziende di IA capiscono veramente come funzionano i loro modelli.\u00a0<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Si tratta del cosiddetto problema della \"scatola nera\", che si presenta quando si cerca di interpretare e spiegare le decisioni specifiche del modello in modo comprensibile per l'uomo.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Ad esempio, uno sviluppatore potrebbe sapere che un modello di deep learning \u00e8 accurato e ha buone prestazioni, ma potrebbe avere difficolt\u00e0 a individuare esattamente le caratteristiche utilizzate dal modello per prendere le sue decisioni.<\/p>\n<p><span style=\"font-weight: 400;\">Anthropic, che ha sviluppato i modelli Claude, ha recentemente <\/span><a href=\"https:\/\/dailyai.com\/it\/2024\/05\/decoding-the-ai-mind-anthropic-researchers-peer-inside-the-black-box\/\"><span style=\"font-weight: 400;\">ha condotto un esperimento<\/span><\/a><span style=\"font-weight: 400;\"> per identificare il funzionamento di Claude 3 Sonnet, spiegando: \"Per lo pi\u00f9 trattiamo i modelli di intelligenza artificiale come una scatola nera: qualcosa entra e una risposta esce, e non \u00e8 chiaro perch\u00e9 il modello abbia dato quella particolare risposta invece di un'altra. Questo rende difficile credere che questi modelli siano sicuri: se non sappiamo come funzionano, come facciamo a sapere che non daranno risposte dannose, distorte, non veritiere o comunque pericolose? Come possiamo fidarci che siano sicuri e affidabili?\".<\/span><\/p>\n<p>\u00c8 un'ammissione davvero notevole che il creatore di una tecnologia non comprenda il suo prodotto nell'era dell'intelligenza artificiale.<\/p>\n<p><span style=\"font-weight: 400;\">L'esperimento antropico ha dimostrato che spiegare oggettivamente le produzioni \u00e8 un compito eccezionalmente difficile. <\/span><span style=\"font-weight: 400;\">In effetti, Anthropic ha stimato che sarebbe servita pi\u00f9 potenza di calcolo per \"aprire la scatola nera\" che per addestrare il modello stesso!<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Gli sviluppatori stanno cercando di combattere attivamente il problema della scatola nera attraverso ricerche come \"Explainable AI\" (XAI), che mira a sviluppare tecniche e strumenti per rendere i modelli di IA pi\u00f9 trasparenti e interpretabili.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">I metodi XAI cercano di fornire approfondimenti sul processo decisionale del modello, di evidenziare le caratteristiche pi\u00f9 influenti e di generare spiegazioni leggibili dall'uomo. L'XAI \u00e8 gi\u00e0 stato applicato ai modelli utilizzati per le decisioni di <a href=\"https:\/\/dailyai.com\/it\/2024\/01\/researchers-aim-to-determine-how-black-box-drug-discovery-models-work\/\">applicazioni come lo sviluppo di farmaci<\/a>in cui la comprensione del funzionamento di un modello potrebbe essere fondamentale per la sicurezza.<\/p>\n<p>Le iniziative open-source sono fondamentali per XAI e per altre ricerche che cercano di penetrare la scatola nera e di fornire trasparenza ai modelli di IA.<\/p>\n<p>Senza l'accesso al codice del modello, ai dati di addestramento e ad altri componenti chiave, i ricercatori non possono sviluppare e testare tecniche per spiegare come funzionano realmente i sistemi di IA e identificare i dati specifici su cui sono stati addestrati.<\/p>\n<h2>Le normative potrebbero confondere ulteriormente la situazione dell'open-source<\/h2>\n<p><span style=\"font-weight: 400;\">L'Unione Europea <\/span><a href=\"https:\/\/dailyai.com\/it\/2024\/03\/the-eu-ai-act-passed-in-a-landslide-and-will-come-into-force-this-year\/\"><span style=\"font-weight: 400;\">Legge sull'AI recentemente approvata<\/span><\/a><span style=\"font-weight: 400;\"> si appresta a introdurre nuove norme per i sistemi di IA, con disposizioni che riguardano specificamente i modelli open-source.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Secondo la legge, i modelli generici open-source fino a una certa dimensione saranno esenti da ampi requisiti di trasparenza.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, come sottolineano Dingemanse e Liesenfeld nel loro studio, l'esatta definizione di \"IA open source\" ai sensi della legge sull'IA non \u00e8 ancora chiara e potrebbe diventare un punto di scontro.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La legge definisce attualmente i modelli open source come quelli rilasciati con una licenza \"libera e aperta\" che consente agli utenti di modificare il modello. Tuttavia, non specifica i requisiti per l'accesso ai dati di formazione o ad altri componenti chiave.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questa ambiguit\u00e0 lascia spazio all'interpretazione e a potenziali pressioni da parte di interessi aziendali. I ricercatori avvertono che il perfezionamento della definizione di open source nella legge sull'IA \"costituir\u00e0 probabilmente un unico punto di pressione che sar\u00e0 preso di mira dalle lobby aziendali e dalle grandi imprese\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">C'\u00e8 il rischio che, in assenza di criteri chiari e solidi per definire ci\u00f2 che costituisce un'IA veramente open-source, le norme possano inavvertitamente creare scappatoie o incentivi per le aziende a impegnarsi in un \"open-washing\", ovvero a dichiarare l'apertura per i vantaggi legali e di pubbliche relazioni, pur mantenendo aspetti importanti dei loro modelli proprietari.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, la natura globale dello sviluppo dell'IA implica che normative diverse tra le varie giurisdizioni potrebbero complicare ulteriormente il panorama.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se i principali produttori di IA, come gli Stati Uniti e la Cina, adottano approcci divergenti ai requisiti di apertura e trasparenza, ci\u00f2 potrebbe portare a un ecosistema frammentato in cui il grado di apertura varia notevolmente a seconda del luogo di origine di un modello.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gli autori dello studio sottolineano la necessit\u00e0 che le autorit\u00e0 di regolamentazione si impegnino a stretto contatto con la comunit\u00e0 scientifica e le altre parti interessate per garantire che qualsiasi disposizione sull'open-source contenuta nella legislazione sull'IA sia fondata su una profonda comprensione della tecnologia e dei principi di apertura.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Come concludono Dingemanse e Liesenfeld in una <\/span><a href=\"https:\/\/www.nature.com\/articles\/d41586-024-02012-5\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">discussione con la Natura<\/span><\/a><span style=\"font-weight: 400;\">\u00c8 lecito affermare che il termine \"open source\" assumer\u00e0 un peso legale senza precedenti nei Paesi disciplinati dall'AI Act dell'UE\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Il modo in cui tutto ci\u00f2 si concretizzer\u00e0 avr\u00e0 implicazioni epocali per la direzione futura della ricerca e della diffusione dell'IA.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Con l'avanzare dell'era dell'IA generativa, un'ampia gamma di aziende si \u00e8 unita alla mischia e i modelli stessi sono diventati sempre pi\u00f9 diversi.  In questo boom dell'IA, molte aziende hanno pubblicizzato i loro modelli come \"open source\", ma cosa significa in pratica? Il concetto di open source affonda le sue radici nella comunit\u00e0 di sviluppo del software. Il software open-source tradizionale rende il codice sorgente liberamente disponibile a chiunque per la visualizzazione, la modifica e la distribuzione.  In sostanza, l'open source \u00e8 un dispositivo di condivisione collaborativa delle conoscenze alimentato dall'innovazione del software, che ha portato a sviluppi come il sistema operativo Linux e il browser web Firefox,<\/p>","protected":false},"author":2,"featured_media":13054,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[105,110],"class_list":["post-13035","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-machine-learning","tag-open-source"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI<\/title>\n<meta name=\"description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI\" \/>\n<meta property=\"og:description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-06-24T10:53:44+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-22T15:23:53+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"wordCount\":1607,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"keywords\":[\"machine learning\",\"Open-source\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"name\":\"The rise of 'open source' AI models: transparency and accountability in question | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"description\":\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"width\":1792,\"height\":1024,\"caption\":\"Open-source AI\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"L'ascesa dei modelli di IA \"open source\": trasparenza e responsabilit\u00e0 in discussione | DailyAI","description":"Con l'avanzare dell'era dell'IA generativa, un'ampia gamma di aziende si \u00e8 unita alla mischia e i modelli stessi sono diventati sempre pi\u00f9 diversi.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_locale":"it_IT","og_type":"article","og_title":"The rise of 'open source' AI models: transparency and accountability in question | DailyAI","og_description":"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0","og_url":"https:\/\/dailyai.com\/it\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_site_name":"DailyAI","article_published_time":"2024-06-24T10:53:44+00:00","article_modified_time":"2024-07-22T15:23:53+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","type":"image\/webp"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"8 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"wordCount":1607,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","keywords":["machine learning","Open-source"],"articleSection":{"1":"Industry"},"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","url":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","name":"L'ascesa dei modelli di IA \"open source\": trasparenza e responsabilit\u00e0 in discussione | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","description":"Con l'avanzare dell'era dell'IA generativa, un'ampia gamma di aziende si \u00e8 unita alla mischia e i modelli stessi sono diventati sempre pi\u00f9 diversi.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","width":1792,"height":1024,"caption":"Open-source AI"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/13035","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=13035"}],"version-history":[{"count":14,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/13035\/revisions"}],"predecessor-version":[{"id":13548,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/13035\/revisions\/13548"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/13054"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=13035"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=13035"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=13035"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}