{"id":2163,"date":"2023-06-30T21:15:16","date_gmt":"2023-06-30T21:15:16","guid":{"rendered":"https:\/\/dailyai.com\/?p=2163"},"modified":"2023-07-03T16:28:22","modified_gmt":"2023-07-03T16:28:22","slug":"anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/","title":{"rendered":"Anthropic ver\u00f6ffentlicht Papier, das die Verzerrung gro\u00dfer Sprachmodelle aufdeckt"},"content":{"rendered":"<p><strong>Ein neues Papier des KI-Unternehmens Anthropic beleuchtet die potenziellen Verzerrungen, die gro\u00dfen Sprachmodellen (LLMs) innewohnen, und deutet darauf hin, dass diese KI-Systeme die verschiedenen globalen Perspektiven auf gesellschaftliche Themen m\u00f6glicherweise nicht angemessen repr\u00e4sentieren.<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Die Forscher erstellten einen Datensatz, GlobalOpinionQA, der Fragen und Antworten aus l\u00e4nder\u00fcbergreifenden Umfragen enth\u00e4lt, mit denen unterschiedliche Meinungen zu globalen Themen in verschiedenen L\u00e4ndern erfasst werden sollen.\u00a0<\/span><\/p>\n<p>Anthropisch <a href=\"https:\/\/arxiv.org\/pdf\/2306.16388.pdf\"><span style=\"font-weight: 400\">Experimente<\/span><\/a><span style=\"font-weight: 400\"> befragte einen LLM und stellte fest, dass die Antworten des Modells standardm\u00e4\u00dfig eher mit den Meinungen bestimmter Bev\u00f6lkerungsgruppen \u00fcbereinstimmen, vor allem mit denen aus den USA, dem Vereinigten K\u00f6nigreich, Kanada, Australien und einigen anderen europ\u00e4ischen und s\u00fcdamerikanischen L\u00e4ndern.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Wie es funktioniert<\/span><\/h2>\n<ol>\n<li style=\"font-weight: 400\"><b>Erstellung von Datens\u00e4tzen<\/b><span style=\"font-weight: 400\">: Das Team hat den GlobalOpinionQA-Datensatz erstellt. Dieser Datensatz enth\u00e4lt Fragen und Antworten aus l\u00e4nder\u00fcbergreifenden Umfragen, die speziell darauf ausgerichtet sind, ein breites Spektrum von Meinungen zu globalen Themen zu erfassen.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Definition einer \u00c4hnlichkeitsmetrik<\/b><span style=\"font-weight: 400\">: Als n\u00e4chstes formulierte Anthropic eine Metrik, um die \u00c4hnlichkeit zwischen den Antworten von LLMs und den Antworten von Menschen zu messen. Diese Metrik ber\u00fccksichtigt das Herkunftsland der menschlichen Befragten.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Ausbildung des LLM<\/b><span style=\"font-weight: 400\">: Anthropic bildete ein LLM auf der Grundlage der \"konstitutionellen KI\" aus und stellte sicher, dass das LLM hilfreich, ehrlich und harmlos war. Konstitutionelle KI ist eine von Anthropic entwickelte Technik, die darauf abzielt, KI-Systeme mit \"Werten\" auszustatten, die durch eine \"Verfassung\" definiert sind.<\/span><\/li>\n<li style=\"font-weight: 400\"><b>Durchf\u00fchrung von Experimenten<\/b><span style=\"font-weight: 400\">: Unter Verwendung ihres sorgf\u00e4ltig konzipierten Rahmens f\u00fchrte das Team von Anthropic drei separate Experimente mit dem ausgebildeten LLM durch.<\/span><\/li>\n<\/ol>\n<p><span style=\"font-weight: 400\">Die Forscher argumentieren, dass dies auf m\u00f6gliche Verzerrungen innerhalb der Modelle hinweist, die dazu f\u00fchren, dass die Meinungen bestimmter Gruppen im Vergleich zu denen aus westlichen L\u00e4ndern unterrepr\u00e4sentiert sind.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Sie stellten fest: \"Wenn ein Sprachmodell bestimmte Meinungen unverh\u00e4ltnism\u00e4\u00dfig stark repr\u00e4sentiert, besteht die Gefahr, dass es potenziell unerw\u00fcnschte Auswirkungen hat, wie z. B. die F\u00f6rderung hegemonialer Weltanschauungen und die Homogenisierung der Perspektiven und \u00dcberzeugungen der Menschen.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dar\u00fcber hinaus stellten die Forscher fest, dass die Aufforderung an das Modell, die Perspektive eines bestimmten Landes zu ber\u00fccksichtigen, zu Antworten f\u00fchrte, die den Meinungen dieser Bev\u00f6lkerungsgruppen \u00e4hnlicher waren. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Das bedeutet, dass Sie die KI zum Beispiel auffordern k\u00f6nnen, \"die s\u00fcdamerikanische Perspektive\" in einer bestimmten kulturellen Debatte zu ber\u00fccksichtigen. <\/span>Allerdings spiegelten diese Antworten manchmal sch\u00e4dliche kulturelle Stereotypen wider, was darauf hindeutet, dass es den Modellen an einem nuancierten Verst\u00e4ndnis kultureller Werte und Perspektiven mangelt.<\/p>\n<p><span style=\"font-weight: 400\">Als die Forscher die GlobalOpinionQA-Fragen in eine Zielsprache \u00fcbersetzten, stimmten die Antworten des Modells interessanterweise nicht unbedingt mit den Meinungen der Sprecher dieser Sprachen \u00fcberein. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Wenn man also eine Frage beispielsweise auf Japanisch stellt, erh\u00e4lt man nicht unbedingt Antworten, die den japanischen kulturellen Werten entsprechen. Man kann die KI nicht von ihren \u00fcberwiegend westlichen Werten \"trennen\". <\/span><\/p>\n<p><span style=\"font-weight: 400\">Dies deutet darauf hin, dass die LLM trotz ihrer Anpassungsf\u00e4higkeit ein tieferes Verst\u00e4ndnis des sozialen Kontextes erwerben m\u00fcssen, um Antworten zu geben, die die lokalen Meinungen genau widerspiegeln.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Die Forscher sind der Ansicht, dass ihre Ergebnisse einen Einblick in die Perspektiven geben werden, die von den derzeitigen Sprachmodellen kodiert und reflektiert werden. Trotz der Einschr\u00e4nkungen ihrer Studie hoffen sie, dass sie die Entwicklung von KI-Systemen anleiten wird, die eine Vielfalt kultureller Standpunkte und Erfahrungen verk\u00f6rpern, nicht nur die von privilegierten oder dominanten Gruppen. Sie haben auch ihren Datensatz und eine <\/span><a href=\"https:\/\/llmglobalvalues.anthropic.com\/\"><span style=\"font-weight: 400\">interaktive Visualisierung.<\/span><\/a><\/p>\n<p>Diese Studie deckt sich weitgehend mit anderen wissenschaftlichen Arbeiten zum Thema der sozialen und kulturellen Werte von KI.<\/p>\n<p>Zum einen werden die meisten grundlegenden KIs von vorwiegend westlichen Unternehmen und Forschungsteams ausgebildet.<\/p>\n<p>Dar\u00fcber hinaus ist die <a href=\"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\">Daten, die zum Trainieren von KIs verwendet werden<\/a> repr\u00e4sentiert nicht immer die Gesellschaft als Ganzes. So ist beispielsweise die \u00fcberwiegende Mehrheit der Trainingsdaten f\u00fcr LLMs in Englisch verfasst und spiegelt somit wahrscheinlich englischsprachige gesellschaftliche und kulturelle Werte wider.<\/p>\n<p>Forscher sind sich der potenziellen Voreingenommenheit und Diskriminierung in der KI durchaus bewusst. Die L\u00f6sung dieses Problems ist jedoch \u00e4u\u00dferst komplex und erfordert eine sorgf\u00e4ltige Mischung aus benutzerdefinierten hochwertigen Datens\u00e4tzen und sorgf\u00e4ltiger menschlicher Eingabe und \u00dcberwachung.<\/p>","protected":false},"excerpt":{"rendered":"<p>Eine neue Arbeit des KI-Unternehmens Anthropic hat die potenziellen Verzerrungen in gro\u00dfen Sprachmodellen (LLMs) aufgezeigt, die darauf hindeuten, dass diese KI-Systeme m\u00f6glicherweise die verschiedenen globalen Perspektiven auf gesellschaftliche Themen nicht angemessen repr\u00e4sentieren. Die Forscher erstellten einen Datensatz, GlobalOpinionQA, der Fragen und Antworten aus l\u00e4nder\u00fcbergreifenden Umfragen enth\u00e4lt, mit denen unterschiedliche Meinungen zu globalen Themen in verschiedenen L\u00e4ndern erfasst werden sollten.  Die Experimente von Anthropic befragten einen LLM und fanden heraus, dass die Antworten des Modells standardm\u00e4\u00dfig eher mit den Meinungen bestimmter Bev\u00f6lkerungsgruppen \u00fcbereinstimmten, insbesondere denen der USA, des Vereinigten K\u00f6nigreichs, Kanadas, Australiens und einiger anderer europ\u00e4ischer und s\u00fcdamerikanischer L\u00e4nder.  Wie<\/p>","protected":false},"author":2,"featured_media":2164,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[148,118],"class_list":["post-2163","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-anthropic","tag-llms"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Anthropic releases paper revealing the bias of large language models | DailyAI<\/title>\n<meta name=\"description\" content=\"A new paper by AI company Anthropic has shed light on the potential biases inherent in large language models (LLMs), suggesting these AI systems may not adequately represent diverse global perspectives on societal issues.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Anthropic releases paper revealing the bias of large language models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"A new paper by AI company Anthropic has shed light on the potential biases inherent in large language models (LLMs), suggesting these AI systems may not adequately represent diverse global perspectives on societal issues.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-30T21:15:16+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-07-03T16:28:22+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"3\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Anthropic releases paper revealing the bias of large language models\",\"datePublished\":\"2023-06-30T21:15:16+00:00\",\"dateModified\":\"2023-07-03T16:28:22+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/\"},\"wordCount\":596,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2299746973.jpg\",\"keywords\":[\"Anthropic\",\"LLMS\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/\",\"name\":\"Anthropic releases paper revealing the bias of large language models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2299746973.jpg\",\"datePublished\":\"2023-06-30T21:15:16+00:00\",\"dateModified\":\"2023-07-03T16:28:22+00:00\",\"description\":\"A new paper by AI company Anthropic has shed light on the potential biases inherent in large language models (LLMs), suggesting these AI systems may not adequately represent diverse global perspectives on societal issues.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2299746973.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2299746973.jpg\",\"width\":1000,\"height\":667,\"caption\":\"ai anthropic\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Anthropic releases paper revealing the bias of large language models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Anthropic ver\u00f6ffentlicht Papier, das die Verzerrung gro\u00dfer Sprachmodelle aufdeckt | DailyAI","description":"Ein neues Papier des KI-Unternehmens Anthropic beleuchtet die potenziellen Verzerrungen, die gro\u00dfen Sprachmodellen (LLMs) innewohnen, und deutet darauf hin, dass diese KI-Systeme die verschiedenen globalen Perspektiven auf gesellschaftliche Themen m\u00f6glicherweise nicht angemessen repr\u00e4sentieren.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/","og_locale":"de_DE","og_type":"article","og_title":"Anthropic releases paper revealing the bias of large language models | DailyAI","og_description":"A new paper by AI company Anthropic has shed light on the potential biases inherent in large language models (LLMs), suggesting these AI systems may not adequately represent diverse global perspectives on societal issues.","og_url":"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/","og_site_name":"DailyAI","article_published_time":"2023-06-30T21:15:16+00:00","article_modified_time":"2023-07-03T16:28:22+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"3\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Anthropic releases paper revealing the bias of large language models","datePublished":"2023-06-30T21:15:16+00:00","dateModified":"2023-07-03T16:28:22+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/"},"wordCount":596,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg","keywords":["Anthropic","LLMS"],"articleSection":["Ethics &amp; Society"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/","url":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/","name":"Anthropic ver\u00f6ffentlicht Papier, das die Verzerrung gro\u00dfer Sprachmodelle aufdeckt | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg","datePublished":"2023-06-30T21:15:16+00:00","dateModified":"2023-07-03T16:28:22+00:00","description":"Ein neues Papier des KI-Unternehmens Anthropic beleuchtet die potenziellen Verzerrungen, die gro\u00dfen Sprachmodellen (LLMs) innewohnen, und deutet darauf hin, dass diese KI-Systeme die verschiedenen globalen Perspektiven auf gesellschaftliche Themen m\u00f6glicherweise nicht angemessen repr\u00e4sentieren.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2299746973.jpg","width":1000,"height":667,"caption":"ai anthropic"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Anthropic releases paper revealing the bias of large language models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/2163","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=2163"}],"version-history":[{"count":9,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/2163\/revisions"}],"predecessor-version":[{"id":2223,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/2163\/revisions\/2223"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/2164"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=2163"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=2163"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=2163"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}