{"id":13035,"date":"2024-06-24T10:53:44","date_gmt":"2024-06-24T10:53:44","guid":{"rendered":"https:\/\/dailyai.com\/?p=13035"},"modified":"2024-07-22T15:23:53","modified_gmt":"2024-07-22T15:23:53","slug":"the-rise-of-open-source-ai-models-transparency-and-accountability-in-question","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","title":{"rendered":"Der Aufstieg der \"Open-Source\"-KI-Modelle: Transparenz und Verantwortlichkeit in Frage gestellt"},"content":{"rendered":"<p><b>Die \u00c4ra der generativen KI schreitet voran, und eine Vielzahl von Unternehmen hat sich dieser Entwicklung angeschlossen, w\u00e4hrend die Modelle selbst immer vielf\u00e4ltiger werden.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Inmitten dieses KI-Booms haben viele Unternehmen ihre Modelle als \"Open Source\" angepriesen, aber was bedeutet das in der Praxis wirklich?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das Konzept von Open Source hat seine Wurzeln in der Software-Entwicklungsgemeinschaft. Bei herk\u00f6mmlicher Open-Source-Software ist der Quellcode f\u00fcr jedermann frei zug\u00e4nglich und kann eingesehen, ver\u00e4ndert und weitergegeben werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Wesentlichen ist Open-Source ein kollaborativer Wissensaustausch, der durch Software-Innovationen vorangetrieben wird und zu Entwicklungen wie dem Linux-Betriebssystem, dem Firefox-Webbrowser und der Programmiersprache Python gef\u00fchrt hat.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Anwendung des Open-Source-Ethos auf die heutigen massiven KI-Modelle ist jedoch alles andere als einfach.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese Systeme werden h\u00e4ufig auf riesigen Datens\u00e4tzen mit Terabytes oder Petabytes an Daten trainiert, wobei komplexe neuronale Netzwerkarchitekturen mit Milliarden von Parametern zum Einsatz kommen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die erforderlichen Computerressourcen kosten Millionen von Dollar, die Talente sind rar, und das geistige Eigentum ist oft gut gesch\u00fctzt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wir k\u00f6nnen dies bei OpenAI beobachten, das, wie der Name schon sagt, ein KI-Forschungslabor war, das sich weitgehend dem Ethos der offenen Forschung verschrieben hat.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Allerdings ist das <a href=\"https:\/\/dailyai.com\/de\/2024\/01\/openai-drifts-further-from-its-namesake-and-founding-principles\/\">Ethos schnell erodiert<\/a> als das Unternehmen das Geld roch und Investitionen anziehen musste, um seine Ziele zu erreichen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Warum? Weil Open-Source-Produkte nicht auf Gewinn ausgerichtet sind und KI teuer und wertvoll ist.\u00a0<\/span><\/p>\n<p>Mit der explosionsartigen Entwicklung der generativen KI ver\u00f6ffentlichen Unternehmen wie Mistral, Meta, BLOOM und xAI Open-Source-Modelle, um die Forschung voranzutreiben und gleichzeitig zu verhindern, dass Unternehmen wie Microsoft und Google zu viel Einfluss erlangen.<\/p>\n<p>Aber wie viele dieser Modelle sind wirklich quelloffen, und zwar nicht nur dem Namen nach?<\/p>\n<h2>Kl\u00e4rung der Frage, wie offen Open-Source-Modelle wirklich sind<\/h2>\n<p><span style=\"font-weight: 400;\">In einer k\u00fcrzlich erschienenen <\/span><a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Studie<\/span><\/a><span style=\"font-weight: 400;\">Die Forscher Mark Dingemanse und Andreas Liesenfeld von der Radboud-Universit\u00e4t in den Niederlanden analysierten zahlreiche bekannte KI-Modelle, um zu untersuchen, wie offen sie sind. Sie untersuchten mehrere Kriterien, wie z. B. die Verf\u00fcgbarkeit von Quellcode, Trainingsdaten, Modellgewichten, Forschungsarbeiten und APIs.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">So wurde beispielsweise festgestellt, dass das LLaMA-Modell von Meta und das Gemma-Modell von Google lediglich \"offen gewichtet\" sind, was bedeutet, dass das trainierte Modell \u00f6ffentlich zur Verwendung freigegeben wird, ohne dass vollst\u00e4ndige Transparenz in Bezug auf seinen Code, den Trainingsprozess, die Daten und die Feinabstimmungsmethoden besteht.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Am anderen Ende des Spektrums hoben die Forscher BLOOM hervor, ein gro\u00dfes mehrsprachiges Modell, das von einer Zusammenarbeit von mehr als 1.000 Forschern weltweit entwickelt wurde, als ein Beispiel f\u00fcr echte Open-Source-KI. Jedes Element des Modells ist f\u00fcr die \u00dcberpr\u00fcfung und weitere Forschung frei zug\u00e4nglich.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In dem Papier wurden mehr als 30 Modelle (sowohl Text- als auch Bildmodelle) bewertet, die jedoch die enorme Vielfalt der Modelle zeigen, die den Anspruch erheben, Open-Source zu sein:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>BloomZ (BigScience)<\/b><span style=\"font-weight: 400;\">: Vollst\u00e4ndig offen f\u00fcr alle Kriterien, einschlie\u00dflich Code, Trainingsdaten, Modellgewichte, Forschungsunterlagen und API. Hervorgehoben als ein Beispiel f\u00fcr echte Open-Source-KI.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>OLMo (Allen Institute for AI):<\/b><span style=\"font-weight: 400;\"> Offener Code, Trainingsdaten, Gewichte und Forschungspapiere. API nur teilweise offen.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Mistral 7B-Instruct (Mistral AI)<\/b><span style=\"font-weight: 400;\">: Offene Modellgewichte und API. Code und Forschungsunterlagen nur teilweise offen. Trainingsdaten sind nicht verf\u00fcgbar.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Orca 2 (Microsoft)<\/b><span style=\"font-weight: 400;\">: Teilweise offene Modellgewichte und Forschungspapiere. Code, Trainingsdaten und API geschlossen.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Gemma 7B instruieren (Google)<\/b><span style=\"font-weight: 400;\">: Teilweise offener Code und Gewichte. Trainingsdaten, Forschungspapiere und API geschlossen. Wird von Google eher als \"offen\" denn als \"Open Source\" bezeichnet.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Llama 3 Anleitung (Meta)<\/b><span style=\"font-weight: 400;\">: Teilweise offene Gewichte. Code, Trainingsdaten, Forschungspapiere und API geschlossen. Ein Beispiel f\u00fcr ein \"offenes Gewichtungsmodell\" ohne gr\u00f6\u00dfere Transparenz.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_13037\" aria-describedby=\"caption-attachment-13037\" style=\"width: 928px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-13037 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png\" alt=\"Quelloffene KI\" width=\"928\" height=\"1024\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-928x1024.png 928w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-272x300.png 272w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-768x847.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-11x12.png 11w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource-60x66.png 60w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/opensource.png 931w\" sizes=\"auto, (max-width: 928px) 100vw, 928px\" \/><figcaption id=\"caption-attachment-13037\" class=\"wp-caption-text\">Eine umfassende Aufschl\u00fcsselung, wie \"quelloffen\" verschiedene KI-Modelle sind. Quelle: <a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3630106.3659005\">ACM Digitale Bibliothek<\/a> (offener Zugang)<\/figcaption><\/figure>\n<h2>Mangelnde Transparenz<\/h2>\n<p class=\"whitespace-pre-wrap break-words\">Die mangelnde Transparenz bei KI-Modellen, insbesondere bei denen, die von gro\u00dfen Technologieunternehmen entwickelt werden, gibt Anlass zu ernsten Bedenken hinsichtlich der Rechenschaftspflicht und der Aufsicht.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Ohne vollst\u00e4ndigen Zugang zum Code des Modells, zu den Trainingsdaten und anderen Schl\u00fcsselkomponenten ist es \u00e4u\u00dferst schwierig zu verstehen, wie diese Modelle funktionieren und Entscheidungen treffen. Dies macht es schwierig, m\u00f6gliche Verzerrungen, Fehler oder den Missbrauch von urheberrechtlich gesch\u00fctztem Material zu erkennen und zu beheben.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Urheberrechtsverletzungen bei KI-Trainingsdaten sind ein Paradebeispiel f\u00fcr die Probleme, die sich aus diesem Mangel an Transparenz ergeben. Viele propriet\u00e4re KI-Modelle, wie GPT-3.5\/4\/40\/Claude 3\/Gemini, wurden wahrscheinlich auf urheberrechtlich gesch\u00fctztem Material trainiert.<\/p>\n<p><span style=\"font-weight: 400;\">Da die Schulungsdaten jedoch unter Verschluss gehalten werden, ist es nahezu unm\u00f6glich, bestimmte Daten in diesem Material zu identifizieren.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der Bericht der New York Times <a href=\"https:\/\/dailyai.com\/de\/2024\/02\/openai-blasts-the-new-york-times-claiming-they-hacked-their-evidence\/\">aktueller Rechtsstreit<\/a> gegen OpenAI zeigt, welche Auswirkungen diese Herausforderung in der Praxis hat. <\/span><span style=\"font-weight: 400;\">OpenAI beschuldigte die NYT, mit Prompt-Engineering-Angriffen Trainingsdaten offenzulegen und ChatGPT dazu zu bringen, ihre Artikel wortw\u00f6rtlich zu reproduzieren, um so zu beweisen, dass die Trainingsdaten von OpenAI urheberrechtlich gesch\u00fctztes Material enthalten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Die Times hat jemanden daf\u00fcr bezahlt, die Produkte von OpenAI zu hacken\", so OpenAI.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In seiner Antwort sagte Ian Crosby, der leitende Rechtsberater der NYT: \"Was OpenAI bizarrerweise als 'Hacking' bezeichnet, ist einfach die Verwendung der Produkte von OpenAI, um nach Beweisen daf\u00fcr zu suchen, dass sie die urheberrechtlich gesch\u00fctzten Werke der Times gestohlen und reproduziert haben. Und das ist genau das, was wir gefunden haben.\"<\/span><\/p>\n<p>Das ist nur ein Beispiel aus einem riesigen Stapel von Klagen, die derzeit zum Teil aufgrund der undurchsichtigen, undurchdringlichen Natur von KI-Modellen blockiert werden.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Dies ist nur die Spitze des Eisbergs. Ohne solide Transparenz und Ma\u00dfnahmen zur Rechenschaftspflicht riskieren wir eine Zukunft, in der unerkl\u00e4rliche KI-Systeme Entscheidungen treffen, die unser Leben, unsere Wirtschaft und unsere Gesellschaft tiefgreifend beeinflussen, aber von der Kontrolle abgeschirmt bleiben.<\/p>\n<h2>Aufruf zur Offenheit<\/h2>\n<p><span style=\"font-weight: 400;\">Unternehmen wie Google und OpenAI wurden aufgefordert, die <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/09\/the-uk-government-wants-to-see-inside-ais-black-box\/\"><span style=\"font-weight: 400;\">Zugang zum Innenleben ihrer Modelle gew\u00e4hren<\/span><\/a><span style=\"font-weight: 400;\"> f\u00fcr die Zwecke der Sicherheitsbewertung. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Wahrheit ist jedoch, dass selbst KI-Unternehmen nicht wirklich verstehen, wie ihre Modelle funktionieren.\u00a0<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Dies wird als \"Blackbox\"-Problem bezeichnet, das auftritt, wenn versucht wird, die spezifischen Entscheidungen des Modells auf eine f\u00fcr den Menschen verst\u00e4ndliche Weise zu interpretieren und zu erkl\u00e4ren.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">Ein Entwickler kann zum Beispiel wissen, dass ein Deep-Learning-Modell genau ist und gute Leistungen erbringt, aber er kann nicht genau sagen, welche Merkmale das Modell f\u00fcr seine Entscheidungen verwendet.<\/p>\n<p><span style=\"font-weight: 400;\">Anthropic, das die Claude-Modelle entwickelt hat, hat k\u00fcrzlich <\/span><a href=\"https:\/\/dailyai.com\/de\/2024\/05\/decoding-the-ai-mind-anthropic-researchers-peer-inside-the-black-box\/\"><span style=\"font-weight: 400;\">ein Experiment durchgef\u00fchrt<\/span><\/a><span style=\"font-weight: 400;\"> um herauszufinden, wie Claude 3 Sonnet funktioniert, und erkl\u00e4rt: \"Wir behandeln KI-Modelle meist wie eine Blackbox: Es wird etwas eingegeben und eine Antwort kommt heraus, und es ist nicht klar, warum das Modell diese bestimmte Antwort gibt und nicht eine andere. Das macht es schwer, darauf zu vertrauen, dass diese Modelle sicher sind: Wenn wir nicht wissen, wie sie funktionieren, woher wissen wir dann, dass sie keine sch\u00e4dlichen, voreingenommenen, unwahren oder anderweitig gef\u00e4hrlichen Antworten geben werden? Wie k\u00f6nnen wir darauf vertrauen, dass sie sicher und zuverl\u00e4ssig sind?\"<\/span><\/p>\n<p>Es ist wirklich ein bemerkenswertes Eingest\u00e4ndnis, dass der Erfinder einer Technologie sein Produkt im Zeitalter der KI nicht versteht.<\/p>\n<p><span style=\"font-weight: 400;\">Dieses anthropische Experiment hat gezeigt, dass die objektive Erkl\u00e4rung von Ergebnissen eine \u00e4u\u00dferst schwierige Aufgabe ist. <\/span><span style=\"font-weight: 400;\">Tats\u00e4chlich sch\u00e4tzte Anthropic, dass das \u00d6ffnen der Blackbox\" mehr Rechenleistung verbrauchen w\u00fcrde als das Trainieren des Modells selbst!<\/span><\/p>\n<p class=\"whitespace-pre-wrap break-words\">Die Entwickler versuchen, das Blackbox-Problem aktiv zu bek\u00e4mpfen, indem sie Forschungsarbeiten wie \"Explainable AI\" (XAI) durchf\u00fchren, die darauf abzielen, Techniken und Werkzeuge zu entwickeln, um KI-Modelle transparenter und interpretierbar zu machen.<\/p>\n<p class=\"whitespace-pre-wrap break-words\">XAI-Methoden sollen Einblicke in den Entscheidungsprozess des Modells geben, die einflussreichsten Merkmale hervorheben und f\u00fcr den Menschen verst\u00e4ndliche Erkl\u00e4rungen liefern. XAI wurde bereits auf Modelle angewandt, die in hochrangigen <a href=\"https:\/\/dailyai.com\/de\/2024\/01\/researchers-aim-to-determine-how-black-box-drug-discovery-models-work\/\">Anwendungen wie die Arzneimittelentwicklung<\/a>wo das Verst\u00e4ndnis f\u00fcr die Funktionsweise eines Modells entscheidend f\u00fcr die Sicherheit sein kann.<\/p>\n<p>Open-Source-Initiativen sind f\u00fcr XAI und andere Forschungen, die versuchen, die Blackbox zu durchdringen und KI-Modelle transparent zu machen, unerl\u00e4sslich.<\/p>\n<p>Ohne Zugang zum Code des Modells, zu den Trainingsdaten und anderen Schl\u00fcsselkomponenten k\u00f6nnen Forscher keine Techniken entwickeln und testen, die erkl\u00e4ren, wie KI-Systeme wirklich funktionieren, und die spezifischen Daten identifizieren, auf denen sie trainiert wurden.<\/p>\n<h2>Vorschriften k\u00f6nnten die Open-Source-Situation weiter verwirren<\/h2>\n<p><span style=\"font-weight: 400;\">Die Europ\u00e4ische Union <\/span><a href=\"https:\/\/dailyai.com\/de\/2024\/03\/the-eu-ai-act-passed-in-a-landslide-and-will-come-into-force-this-year\/\"><span style=\"font-weight: 400;\">das k\u00fcrzlich verabschiedete AI-Gesetz<\/span><\/a><span style=\"font-weight: 400;\"> wird neue Vorschriften f\u00fcr KI-Systeme einf\u00fchren, die speziell auf Open-Source-Modelle ausgerichtet sind.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das Gesetz sieht vor, dass Open-Source-Allzweckmodelle bis zu einer bestimmten Gr\u00f6\u00dfe von den umfangreichen Transparenzanforderungen ausgenommen werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wie Dingemanse und Liesenfeld in ihrer Studie jedoch betonen, ist die genaue Definition von \"Open-Source-KI\" im Rahmen des KI-Gesetzes noch unklar und k\u00f6nnte zu einem Streitpunkt werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das Gesetz definiert Open-Source-Modelle derzeit als solche, die unter einer \"freien und offenen\" Lizenz ver\u00f6ffentlicht werden, die es den Nutzern erlaubt, das Modell zu ver\u00e4ndern. Es enth\u00e4lt jedoch keine Anforderungen f\u00fcr den Zugang zu Trainingsdaten oder anderen Schl\u00fcsselkomponenten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese Zweideutigkeit l\u00e4sst Raum f\u00fcr Interpretationen und potenzielle Lobbyarbeit durch Unternehmensinteressen. Die Forscher warnen, dass die Verfeinerung der Open-Source-Definition im KI-Gesetz \"wahrscheinlich einen einzigen Druckpunkt bilden wird, auf den Konzernlobbys und gro\u00dfe Unternehmen abzielen werden\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es besteht die Gefahr, dass ohne klare, robuste Kriterien daf\u00fcr, was wirklich quelloffene KI ist, die Verordnungen unbeabsichtigt Schlupfl\u00f6cher oder Anreize f\u00fcr Unternehmen schaffen k\u00f6nnten, sich auf \"Open-Washing\" einzulassen - indem sie Offenheit f\u00fcr die rechtlichen und \u00f6ffentlichkeitswirksamen Vorteile beanspruchen, w\u00e4hrend sie wichtige Aspekte ihrer Modelle weiterhin propriet\u00e4r halten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dar\u00fcber hinaus bedeutet der globale Charakter der KI-Entwicklung, dass unterschiedliche Vorschriften in den verschiedenen L\u00e4ndern die Landschaft weiter verkomplizieren k\u00f6nnten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wenn gro\u00dfe KI-Produzenten wie die Vereinigten Staaten und China unterschiedliche Konzepte f\u00fcr Offenheit und Transparenzanforderungen verfolgen, k\u00f6nnte dies zu einem fragmentierten \u00d6kosystem f\u00fchren, in dem der Grad der Offenheit je nach Herkunftsland eines Modells stark variiert.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Autoren der Studie betonen, dass die Regulierungsbeh\u00f6rden eng mit der wissenschaftlichen Gemeinschaft und anderen Interessengruppen zusammenarbeiten m\u00fcssen, um sicherzustellen, dass alle Open-Source-Bestimmungen in der KI-Gesetzgebung auf einem tiefen Verst\u00e4ndnis der Technologie und den Grunds\u00e4tzen der Offenheit beruhen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wie Dingemanse und Liesenfeld in einer Studie feststellen <\/span><a href=\"https:\/\/www.nature.com\/articles\/d41586-024-02012-5\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Diskussion mit der Natur<\/span><\/a><span style=\"font-weight: 400;\">Man kann mit Fug und Recht behaupten, dass der Begriff Open Source in den L\u00e4ndern, die unter den EU AI Act fallen, ein noch nie dagewesenes rechtliches Gewicht erhalten wird.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Wie sich dies in der Praxis auswirkt, wird erhebliche Auswirkungen auf die k\u00fcnftige Richtung der KI-Forschung und -Einf\u00fchrung haben.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Die \u00c4ra der generativen KI schreitet voran, und eine Vielzahl von Unternehmen hat sich dieser Entwicklung angeschlossen, wobei die Modelle selbst immer vielf\u00e4ltiger werden.  Inmitten dieses KI-Booms haben viele Unternehmen ihre Modelle als \"Open Source\" angepriesen, aber was bedeutet das in der Praxis wirklich? Der Begriff \"Open Source\" hat seine Wurzeln in der Software-Entwicklungsgemeinschaft. Bei herk\u00f6mmlicher Open-Source-Software ist der Quellcode frei zug\u00e4nglich und kann von jedermann eingesehen, ge\u00e4ndert und weitergegeben werden.  Im Wesentlichen ist Open-Source ein kollaborativer Wissensaustausch, der durch Software-Innovationen vorangetrieben wird und zu Entwicklungen wie dem Linux-Betriebssystem und dem Firefox-Webbrowser gef\u00fchrt hat,<\/p>","protected":false},"author":2,"featured_media":13054,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[105,110],"class_list":["post-13035","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-machine-learning","tag-open-source"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI<\/title>\n<meta name=\"description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The rise of &#039;open source&#039; AI models: transparency and accountability in question | DailyAI\" \/>\n<meta property=\"og:description\" content=\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-06-24T10:53:44+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-22T15:23:53+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"8\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"},\"wordCount\":1607,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"keywords\":[\"machine learning\",\"Open-source\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\",\"name\":\"The rise of 'open source' AI models: transparency and accountability in question | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"datePublished\":\"2024-06-24T10:53:44+00:00\",\"dateModified\":\"2024-07-22T15:23:53+00:00\",\"description\":\"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/06\\\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp\",\"width\":1792,\"height\":1024,\"caption\":\"Open-source AI\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/06\\\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Der Aufstieg von \"Open-Source\"-KI-Modellen: Transparenz und Verantwortlichkeit in Frage gestellt | DailyAI","description":"Die \u00c4ra der generativen KI schreitet voran, und eine Vielzahl von Unternehmen hat sich dieser Entwicklung angeschlossen, w\u00e4hrend die Modelle selbst immer vielf\u00e4ltiger werden.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_locale":"de_DE","og_type":"article","og_title":"The rise of 'open source' AI models: transparency and accountability in question | DailyAI","og_description":"As the era of generative AI marches on, a broad range of companies have joined the fray, and the models themselves have become increasingly diverse.\u00a0","og_url":"https:\/\/dailyai.com\/de\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","og_site_name":"DailyAI","article_published_time":"2024-06-24T10:53:44+00:00","article_modified_time":"2024-07-22T15:23:53+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","type":"image\/webp"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"8\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"},"wordCount":1607,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","keywords":["machine learning","Open-source"],"articleSection":{"1":"Industry"},"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","url":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/","name":"Der Aufstieg von \"Open-Source\"-KI-Modellen: Transparenz und Verantwortlichkeit in Frage gestellt | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","datePublished":"2024-06-24T10:53:44+00:00","dateModified":"2024-07-22T15:23:53+00:00","description":"Die \u00c4ra der generativen KI schreitet voran, und eine Vielzahl von Unternehmen hat sich dieser Entwicklung angeschlossen, w\u00e4hrend die Modelle selbst immer vielf\u00e4ltiger werden.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/06\/DALL\u00b7E-2024-06-24-11.49.36-An-image-illustrating-the-concept-of-open-source-AI-models.-The-image-should-depict-a-futuristic-cityscape-at-night-with-neon-lights-in-red-blue-gre.webp","width":1792,"height":1024,"caption":"Open-source AI"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/06\/the-rise-of-open-source-ai-models-transparency-and-accountability-in-question\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The rise of &#8216;open source&#8217; AI models: transparency and accountability in question"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/13035","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=13035"}],"version-history":[{"count":14,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/13035\/revisions"}],"predecessor-version":[{"id":13548,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/13035\/revisions\/13548"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/13054"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=13035"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=13035"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=13035"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}