{"id":12043,"date":"2024-05-08T15:17:20","date_gmt":"2024-05-08T15:17:20","guid":{"rendered":"https:\/\/dailyai.com\/?p=12043"},"modified":"2024-05-08T15:17:20","modified_gmt":"2024-05-08T15:17:20","slug":"ai-transcription-tools-generate-harmful-hallucinations","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/","title":{"rendered":"KI-Transkriptionswerkzeuge erzeugen sch\u00e4dliche Halluzinationen"},"content":{"rendered":"<p><strong>Sprache-zu-Text-Transkriptoren sind von unsch\u00e4tzbarem Wert, aber eine neue Studie zeigt, dass der halluzinierte Text oft sch\u00e4dlich ist, wenn die KI einen Fehler macht.<\/strong><\/p>\n<p>KI-Transkriptionstools sind extrem genau geworden und haben die Art und Weise ver\u00e4ndert, wie \u00c4rzte Patientenakten f\u00fchren oder wie wir Besprechungsprotokolle anfertigen. Wir wissen, dass sie nicht perfekt sind, daher sind wir nicht \u00fcberrascht, wenn die Transkription nicht ganz stimmt.<\/p>\n<p><a href=\"https:\/\/arxiv.org\/abs\/2402.08021\" target=\"_blank\" rel=\"noopener\">Eine neue Studie<\/a> festgestellt, dass fortschrittlichere KI-Transkriptionsprogramme wie <span class=\"noTranslate\" data-no-translation=\"\">OpenAI<\/span>Whisper Fehler machen, produzieren sie nicht nur verst\u00fcmmelten oder zuf\u00e4lligen Text. Sie halluzinieren ganze S\u00e4tze, und sie sind oft beunruhigend.<\/p>\n<p>Wir wissen, dass alle KI-Modelle halluzinieren. Wenn <span class=\"noTranslate\" data-no-translation=\"\">ChatGPT<\/span> keine Antwort auf eine Frage wei\u00df, denkt es sich oft etwas aus, anstatt zu sagen: \"Ich wei\u00df es nicht\".<\/p>\n<p>Forscher der Cornell University, der University of Washington, der New York University und der University of Virginia fanden heraus, dass die Whisper-API zwar besser war als andere Tools, aber immer noch in \u00fcber 1% der F\u00e4lle halluzinierte.<\/p>\n<p>Das wichtigere Ergebnis ist, dass sie bei der Analyse des halluzinierten Textes feststellten, dass \"38% der Halluzinationen explizite Sch\u00e4digungen beinhalten, wie z. B. die Aus\u00fcbung von Gewalt, das Erfinden falscher Assoziationen oder die Unterstellung einer falschen Autorit\u00e4t\".<\/p>\n<p>Es scheint, dass Whisper keine peinlichen Pausen mag, so dass es bei l\u00e4ngeren Sprechpausen dazu neigt, mehr zu halluzinieren, um die L\u00fccken zu f\u00fcllen.<\/p>\n<p>Dies wird zu einem ernsthaften Problem bei der Transkription von Sprache, die von Menschen mit Aphasie gesprochen wird, einer Sprachst\u00f6rung, die oft dazu f\u00fchrt, dass die Person Schwierigkeiten hat, die richtigen Worte zu finden.<\/p>\n<h2>Unachtsames Fl\u00fcstern<\/h2>\n<p>In dem Papier werden die Ergebnisse von Experimenten mit fr\u00fchen 2023er Versionen von Whisper festgehalten. <span class=\"noTranslate\" data-no-translation=\"\">OpenAI<\/span> hat das Werkzeug inzwischen verbessert, aber Whispers Neigung, bei Halluzinationen auf die dunkle Seite zu wechseln, ist interessant.<\/p>\n<p>Die Forscher klassifizierten die sch\u00e4dlichen Halluzinationen wie folgt:<\/p>\n<ul>\n<li><strong>Fortbestand der Gewalt:<\/strong> Halluzinationen, die Gewalt darstellten, sexuelle Anspielungen enthielten oder mit demografischen Stereotypen zu tun hatten.<\/li>\n<li><strong>Unzutreffende Assoziationen:<\/strong> Halluzinationen mit falschen Informationen, wie z. B. falsche Namen, fiktive Beziehungen oder ein falscher Gesundheitszustand.<\/li>\n<li><strong>Falsche Autorit\u00e4t:<\/strong> Diese Halluzinationen enthielten Texte, die sich als Autorit\u00e4tspersonen oder Medienvertreter ausgaben, wie z. B. YouTuber oder Nachrichtensprecher, und beinhalteten oft Anweisungen, die zu Phishing-Angriffen oder anderen Formen der T\u00e4uschung f\u00fchren konnten.<\/li>\n<\/ul>\n<p>Hier sind einige Beispiele f\u00fcr Transkriptionen, bei denen die fettgedruckten W\u00f6rter Whispers halluzinierte Erg\u00e4nzungen sind.<\/p>\n<figure id=\"attachment_12046\" aria-describedby=\"caption-attachment-12046\" style=\"width: 1712px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-12046 size-full\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1.png\" alt=\"\" width=\"1712\" height=\"924\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1.png 1712w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-300x162.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-1024x553.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-768x415.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-1536x829.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-18x10.png 18w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-1-60x32.png 60w\" sizes=\"auto, (max-width: 1712px) 100vw, 1712px\" \/><figcaption id=\"caption-attachment-12046\" class=\"wp-caption-text\">Die halluzinierten Erg\u00e4nzungen von Whisper zur Transkription sind fett gedruckt. Quelle: arXiv<\/figcaption><\/figure>\n<figure id=\"attachment_12047\" aria-describedby=\"caption-attachment-12047\" style=\"width: 1720px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-12047 size-full\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2.png\" alt=\"\" width=\"1720\" height=\"742\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2.png 1720w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-300x129.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-1024x442.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-768x331.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-1536x663.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-18x8.png 18w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/Whisper-hallucinations-2-60x26.png 60w\" sizes=\"auto, (max-width: 1720px) 100vw, 1720px\" \/><figcaption id=\"caption-attachment-12047\" class=\"wp-caption-text\">Die halluzinierten Erg\u00e4nzungen von Whisper zur Transkription sind fett gedruckt. Quelle: arXiv<\/figcaption><\/figure>\n<p>Sie k\u00f6nnen sich vorstellen, wie gef\u00e4hrlich diese Art von Fehlern sein kann, wenn bei der Dokumentation einer Zeugenaussage, eines Telefongespr\u00e4chs oder der Krankenakte eines Patienten davon ausgegangen wird, dass die Abschriften korrekt sind.<\/p>\n<p>Warum nahm Whisper einen Satz \u00fcber einen Feuerwehrmann, der eine Katze rettet, und f\u00fcgte einen \"blutgetr\u00e4nkten Kinderwagen\" in die Szene ein, oder f\u00fcgte ein \"Terrormesser\" in einen Satz ein, der beschreibt, wie jemand einen Regenschirm \u00f6ffnet?<\/p>\n<p><span class=\"noTranslate\" data-no-translation=\"\">OpenAI<\/span> scheint das Problem behoben zu haben, gibt aber keine Erkl\u00e4rung daf\u00fcr, warum Whisper sich so verhielt, wie es sich verhielt. Als die Forscher die neueren Versionen von Whisper testeten, bekamen sie weit weniger problematische Halluzinationen.<\/p>\n<p>Selbst leichte oder sehr wenige Halluzinationen in den Transkriptionen k\u00f6nnten schwerwiegende Folgen haben.<\/p>\n<p>In dem Papier wird ein reales Szenario beschrieben, in dem ein Tool wie Whisper zur Transkription von Videointerviews von Stellenbewerbern verwendet wird. Die Transkriptionen werden in ein Einstellungssystem eingespeist, das die Transkription mithilfe eines Sprachmodells analysiert, um den am besten geeigneten Bewerber zu finden.<\/p>\n<p>Wenn ein Befragter etwas zu lange pausiert und Whisper \"Terrormesser\", \"blutgetr\u00e4nkter Kinderwagen\" oder \"befummelt\" zu einem Satz hinzuf\u00fcgt, kann sich das auf seine Chancen auswirken, den Job zu bekommen.<\/p>\n<p>Die Forscher sagten, dass <span class=\"noTranslate\" data-no-translation=\"\">OpenAI<\/span> sollte darauf aufmerksam machen, dass Whisper halluziniert und dass es herausfinden sollte, warum es problematische Transkriptionen erzeugt.<\/p>\n<p>Sie schlagen au\u00dferdem vor, dass neuere Versionen von Whisper so gestaltet werden sollten, dass sie besser f\u00fcr unterversorgte Bev\u00f6lkerungsgruppen geeignet sind, z. B. f\u00fcr Menschen mit Aphasie und anderen Sprachbehinderungen.<\/p>","protected":false},"excerpt":{"rendered":"<p>Sprache-zu-Text-Transkriptionsprogramme sind von unsch\u00e4tzbarem Wert, aber eine neue Studie zeigt, dass der halluzinierte Text oft sch\u00e4dlich ist, wenn die KI einen Fehler macht. KI-Transkriptionstools sind extrem genau geworden und haben die Art und Weise ver\u00e4ndert, wie \u00c4rzte Patientenakten f\u00fchren oder wie wir Sitzungsprotokolle erstellen. Wir wissen, dass sie nicht perfekt sind, daher sind wir nicht \u00fcberrascht, wenn die Transkription nicht ganz stimmt. Eine neue Studie hat ergeben, dass fortschrittlichere KI-Transkriptoren wie OpenAIs Whisper bei Fehlern nicht einfach nur einen verst\u00fcmmelten oder zuf\u00e4lligen Text produzieren. Sie halluzinieren ganze Phrasen, und das ist oft beunruhigend. Wir wissen, dass alle KI-Modelle halluzinieren. Wenn<\/p>","protected":false},"author":6,"featured_media":12048,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[163,107],"class_list":["post-12043","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-ai-risks","tag-generative-ai"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>AI transcription tools generate harmful hallucinations | DailyAI<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI transcription tools generate harmful hallucinations | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Speech-to-text transcribers have become invaluable but a new study shows that when the AI gets it wrong the hallucinated text is often harmful. AI transcription tools have become extremely accurate and have transformed the way doctors keep patient records or how we take minutes of meetings. We know they\u2019re not perfect so we\u2019re unsurprised when the transcription isn\u2019t quite right. A new study found that when more advanced AI transcribers like OpenAI\u2019s Whisper make mistakes they don\u2019t simply produce garbled or random text. They hallucinate entire phrases, and they are often distressing. We know that all AI models hallucinate. When\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-08T15:17:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Eugene van der Watt\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Eugene van der Watt\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"4\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/\"},\"author\":{\"name\":\"Eugene van der Watt\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\"},\"headline\":\"AI transcription tools generate harmful hallucinations\",\"datePublished\":\"2024-05-08T15:17:20+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/\"},\"wordCount\":653,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/05\\\/hallucinating-transcriber.webp\",\"keywords\":[\"AI risks\",\"Generative AI\"],\"articleSection\":[\"Industry\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/\",\"name\":\"AI transcription tools generate harmful hallucinations | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/05\\\/hallucinating-transcriber.webp\",\"datePublished\":\"2024-05-08T15:17:20+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/05\\\/hallucinating-transcriber.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/05\\\/hallucinating-transcriber.webp\",\"width\":1792,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/05\\\/ai-transcription-tools-generate-harmful-hallucinations\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI transcription tools generate harmful hallucinations\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/7ce525c6d0c79838b7cc7cde96993cfa\",\"name\":\"Eugene van der Watt\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/Eugine_Profile_Picture-96x96.png\",\"caption\":\"Eugene van der Watt\"},\"description\":\"Eugene comes from an electronic engineering background and loves all things tech. When he takes a break from consuming AI news you'll find him at the snooker table.\",\"sameAs\":[\"www.linkedin.com\\\/in\\\/eugene-van-der-watt-16828119\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/eugene\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"KI-Transkriptionswerkzeuge erzeugen sch\u00e4dliche Halluzinationen | DailyAI","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/","og_locale":"de_DE","og_type":"article","og_title":"AI transcription tools generate harmful hallucinations | DailyAI","og_description":"Speech-to-text transcribers have become invaluable but a new study shows that when the AI gets it wrong the hallucinated text is often harmful. AI transcription tools have become extremely accurate and have transformed the way doctors keep patient records or how we take minutes of meetings. We know they\u2019re not perfect so we\u2019re unsurprised when the transcription isn\u2019t quite right. A new study found that when more advanced AI transcribers like OpenAI\u2019s Whisper make mistakes they don\u2019t simply produce garbled or random text. They hallucinate entire phrases, and they are often distressing. We know that all AI models hallucinate. When","og_url":"https:\/\/dailyai.com\/de\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/","og_site_name":"DailyAI","article_published_time":"2024-05-08T15:17:20+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp","type":"image\/webp"}],"author":"Eugene van der Watt","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Eugene van der Watt","Gesch\u00e4tzte Lesezeit":"4\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/"},"author":{"name":"Eugene van der Watt","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa"},"headline":"AI transcription tools generate harmful hallucinations","datePublished":"2024-05-08T15:17:20+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/"},"wordCount":653,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp","keywords":["AI risks","Generative AI"],"articleSection":["Industry"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/","url":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/","name":"KI-Transkriptionswerkzeuge erzeugen sch\u00e4dliche Halluzinationen | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp","datePublished":"2024-05-08T15:17:20+00:00","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/05\/hallucinating-transcriber.webp","width":1792,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/05\/ai-transcription-tools-generate-harmful-hallucinations\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"AI transcription tools generate harmful hallucinations"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/7ce525c6d0c79838b7cc7cde96993cfa","name":"Eugene van der Watt","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/Eugine_Profile_Picture-96x96.png","caption":"Eugene van der Watt"},"description":"Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.","sameAs":["www.linkedin.com\/in\/eugene-van-der-watt-16828119"],"url":"https:\/\/dailyai.com\/de\/author\/eugene\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/12043","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=12043"}],"version-history":[{"count":3,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/12043\/revisions"}],"predecessor-version":[{"id":12050,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/12043\/revisions\/12050"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/12048"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=12043"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=12043"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=12043"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}