{"id":11499,"date":"2024-04-11T19:06:18","date_gmt":"2024-04-11T19:06:18","guid":{"rendered":"https:\/\/dailyai.com\/?p=11499"},"modified":"2024-04-12T10:16:58","modified_gmt":"2024-04-12T10:16:58","slug":"nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/","title":{"rendered":"NYU-Forscher bauen ein bahnbrechendes KI-Sprachsynthesesystem"},"content":{"rendered":"<p><b>Ein Forscherteam der New York University hat Fortschritte bei der neuronalen Sprachdekodierung erzielt, die uns einer Zukunft n\u00e4her bringen, in der Menschen, die die F\u00e4higkeit zu sprechen verloren haben, ihre Stimme wiedererlangen k\u00f6nnen.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Die <\/span><a href=\"https:\/\/www.nature.com\/articles\/s42256-024-00824-8\" target=\"_blank\" rel=\"noopener\"><span style=\"font-weight: 400;\">Studie<\/span><\/a><span style=\"font-weight: 400;\">, ver\u00f6ffentlicht in <em>Natur Maschinelle Intelligenz<\/em>stellt ein neuartiges Deep-Learning-System vor, das Gehirnsignale pr\u00e4zise in verst\u00e4ndliche Sprache umwandelt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Menschen mit Hirnverletzungen aufgrund von Schlaganf\u00e4llen, degenerativen Erkrankungen oder k\u00f6rperlichen Traumata k\u00f6nnen diese Systeme zur Kommunikation nutzen, indem sie ihre Gedanken oder die beabsichtigte Sprache aus neuronalen Signalen entschl\u00fcsseln.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das System des NYU-Teams basiert auf einem Deep-Learning-Modell, das die Elektrokortikographie-Signale (EKoG) des Gehirns auf Sprachmerkmale wie Tonh\u00f6he, Lautst\u00e4rke und andere spektrale Inhalte abbildet.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die zweite Stufe beinhaltet einen neuronalen Sprachsynthesizer, der die extrahierten Sprachmerkmale in ein h\u00f6rbares Spektrogramm umwandelt, das dann in eine Sprachwellenform umgewandelt werden kann.\u00a0<\/span><\/p>\n<p>Diese Wellenform kann schlie\u00dflich in nat\u00fcrlich klingende, synthetische Sprache umgewandelt werden.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Neue Ver\u00f6ffentlichung in <a href=\"https:\/\/twitter.com\/NatMachIntell?ref_src=twsrc%5Etfw\">@NatMachIntell<\/a>in dem wir eine robuste neuronale Sprachdekodierung bei 48 Patienten zeigen. <a href=\"https:\/\/t.co\/rNPAMr4l68\">https:\/\/t.co\/rNPAMr4l68<\/a> <a href=\"https:\/\/t.co\/FG7QKCBVzp\">pic.twitter.com\/FG7QKCBVzp<\/a><\/p>\n<p>- Adeen Flinker \ud83c\uddee\ud83c\uddf1\ud83c\uddfa\ud83c\udde6\ud83c\udf97\ufe0f (@adeenflinker) <a href=\"https:\/\/twitter.com\/adeenflinker\/status\/1777513445304193367?ref_src=twsrc%5Etfw\">9. April 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2>Wie die Studie funktioniert<\/h2>\n<p><span style=\"font-weight: 400;\">Im Rahmen dieser Studie wird ein KI-Modell trainiert, das ein Sprachsyntheseger\u00e4t betreiben kann, das es Menschen mit Sprachverlust erm\u00f6glicht, mit Hilfe von elektrischen Impulsen ihres Gehirns zu sprechen.\u00a0<\/span><\/p>\n<p>Im Folgenden wird die Funktionsweise n\u00e4her erl\u00e4utert:<\/p>\n<p><b>1. Erfassen von Gehirndaten<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Der erste Schritt besteht darin, die Rohdaten zu sammeln, die f\u00fcr das Training des Sprachentschl\u00fcsselungsmodells ben\u00f6tigt werden. Die Forscher arbeiteten mit 48 Teilnehmern, die sich wegen Epilepsie einer neurochirurgischen Behandlung unterzogen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend der Studie wurden diese Teilnehmer aufgefordert, Hunderte von S\u00e4tzen laut zu lesen, w\u00e4hrend ihre Gehirnaktivit\u00e4t mit Hilfe von EKG-Gittern aufgezeichnet wurde. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese Gitter werden direkt auf der Hirnoberfl\u00e4che platziert und erfassen elektrische Signale aus den Hirnregionen, die an der Sprachproduktion beteiligt sind.<\/span><\/p>\n<p><b>2. Abbildung von Gehirnsignalen auf Sprache<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Anhand von Sprachdaten entwickelten die Forscher ein ausgekl\u00fcgeltes KI-Modell, das die aufgezeichneten Gehirnsignale bestimmten Sprachmerkmalen wie Tonh\u00f6he, Lautst\u00e4rke und den einzelnen Frequenzen zuordnet, die verschiedene Sprachlaute ausmachen.\u00a0<\/span><\/p>\n<p><b>3. Synthese von Sprache aus Merkmalen<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Der dritte Schritt besteht darin, die aus den Gehirnsignalen extrahierten Sprachmerkmale wieder in h\u00f6rbare Sprache umzuwandeln. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Forscher verwendeten einen speziellen Sprachsynthesizer, der aus den extrahierten Merkmalen ein Spektrogramm erzeugt - eine visuelle Darstellung der Sprachlaute.\u00a0<\/span><\/p>\n<p><b>4. Auswertung der Ergebnisse<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Die Forscher verglichen die von ihrem Modell generierte Sprache mit der von den Teilnehmern gesprochenen Originalsprache. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie verwendeten objektive Kriterien, um die \u00c4hnlichkeit zwischen den beiden zu messen, und stellten fest, dass die generierte Sprache dem Inhalt und dem Rhythmus des Originals sehr \u00e4hnlich war.\u00a0<\/span><\/p>\n<p><b>5. Testen von neuen W\u00f6rtern<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Um sicherzustellen, dass das Modell mit neuen W\u00f6rtern umgehen kann, die es noch nicht kennt, wurden in der Trainingsphase des Modells bestimmte W\u00f6rter absichtlich ausgelassen und anschlie\u00dfend die Leistung des Modells bei diesen ungesehenen W\u00f6rtern getestet. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die F\u00e4higkeit des Modells, selbst neue W\u00f6rter korrekt zu dekodieren, zeigt sein Potenzial zur Verallgemeinerung und Verarbeitung unterschiedlicher Sprachmuster.<\/span><\/p>\n<figure id=\"attachment_11500\" aria-describedby=\"caption-attachment-11500\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-11500 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-1024x397.webp\" alt=\"AI-Sprache\" width=\"1024\" height=\"397\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-1024x397.webp 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-300x116.webp 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-768x298.webp 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-1536x596.webp 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML-60x23.webp 60w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/42256_2024_824_Fig1_HTML.webp 1622w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-11500\" class=\"wp-caption-text\">Das Sprachsynthesesystem der NYU. Quelle: <a href=\"https:\/\/www.nature.com\/articles\/s42256-024-00824-8\">Natur<\/a> (offener Zugang)<\/figcaption><\/figure>\n<p>Der obere Teil des obigen Diagramms beschreibt einen Prozess zur Umwandlung von Gehirnsignalen in Sprache. Zun\u00e4chst wandelt ein Decoder diese Signale im Laufe der Zeit in Sprachparameter um. Dann erzeugt ein Synthesizer aus diesen Parametern Klangbilder (Spektrogramme). Ein weiteres Werkzeug wandelt diese Bilder wieder in Schallwellen um.<\/p>\n<p>Im unteren Abschnitt wird ein System er\u00f6rtert, mit dem der Signaldecoder des Gehirns durch Nachahmung von Sprache trainiert wird. Es nimmt ein Klangbild, wandelt es in Sprachparameter um und verwendet diese dann, um ein neues Klangbild zu erzeugen. Dieser Teil des Systems lernt von tats\u00e4chlichen Sprachkl\u00e4ngen, um sich zu verbessern.<\/p>\n<p>Nach dem Training ist nur noch der oberste Prozess erforderlich, um die Gehirnsignale in Sprache umzuwandeln.<\/p>\n<p><span style=\"font-weight: 400;\">Ein entscheidender Vorteil des NYU-Systems besteht darin, dass es eine qualitativ hochwertige Sprachdekodierung erm\u00f6glicht, ohne dass extrem dichte Elektrodenarrays erforderlich sind, die f\u00fcr einen langfristigen Einsatz unpraktisch sind. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Wesentlichen handelt es sich um eine leichtere, tragbare L\u00f6sung.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Eine weitere Errungenschaft ist die erfolgreiche Dekodierung von Sprache sowohl aus der linken als auch aus der rechten Gehirnh\u00e4lfte, was f\u00fcr Patienten mit Hirnsch\u00e4den auf einer Seite wichtig ist.\u00a0<\/span><\/p>\n<h2>Umwandlung von Gedanken in Sprache mithilfe von KI<\/h2>\n<p><span style=\"font-weight: 400;\">Die Studie der NYU st\u00fctzt sich auf fr\u00fchere Forschungen zur neuronalen Sprachdekodierung und zu Gehirn-Computer-Schnittstellen (BCI).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Jahr 2023 erm\u00f6glichte ein Team der University of California, San Francisco, einem gel\u00e4hmten Schlaganfall\u00fcberlebenden <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/08\/ai-replenishes-speech-and-facial-expressions-of-stroke-survivor\/\"><span style=\"font-weight: 400;\">S\u00e4tze bilden<\/span><\/a><span style=\"font-weight: 400;\"> mit einer Geschwindigkeit von 78 W\u00f6rtern pro Minute mit Hilfe eines BCI, das sowohl Vokalisationen als auch Gesichtsausdr\u00fccke aus Gehirnsignalen synthetisiert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Andere neuere Studien haben sich mit dem Einsatz von KI zur Interpretation verschiedener Aspekte des menschlichen Denkens anhand von Gehirnaktivit\u00e4ten befasst. Forscher haben gezeigt, dass sie in der Lage sind, aus MRT- und EEG-Daten des Gehirns Bilder, Texte und sogar Musik zu erzeugen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zum Beispiel, ein <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/08\/ai-mind-reading-medical-breakthrough-or-step-towards-dystopia\/\"><span style=\"font-weight: 400;\">Studie der Universit\u00e4t von Helsinki<\/span><\/a><span style=\"font-weight: 400;\"> nutzten EEG-Signale, um ein generatives adversariales Netzwerk (GAN) bei der Erstellung von Gesichtsbildern anzuleiten, die den Gedanken der Teilnehmer entsprachen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Meta AI auch <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/10\/ai-decodes-speech-from-non-invasive-brain-recordings\/\"><span style=\"font-weight: 400;\">eine Technik entwickelt<\/span><\/a><span style=\"font-weight: 400;\"> zur teilweisen Dekodierung dessen, was jemand h\u00f6rte, anhand von nicht-invasiv erfassten Gehirnstr\u00f6men.<\/span><\/p>\n<h2>Chancen und Herausforderungen<\/h2>\n<p>Die NYU-Methode verwendet mehr verf\u00fcgbare und klinisch brauchbare Elektroden als fr\u00fchere Methoden, was sie leichter zug\u00e4nglich macht.<\/p>\n<p><span style=\"font-weight: 400;\">Das ist zwar aufregend, aber es gibt noch gro\u00dfe Hindernisse zu \u00fcberwinden, wenn wir eine breite Anwendung erleben wollen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Zum einen ist die Erhebung hochwertiger Hirndaten ein komplexes und zeitaufw\u00e4ndiges Unterfangen. Individuelle Unterschiede in der Hirnaktivit\u00e4t erschweren die Verallgemeinerung, d. h. ein Modell, das f\u00fcr eine Gruppe von Teilnehmern trainiert wurde, funktioniert m\u00f6glicherweise nicht gut f\u00fcr eine andere.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dennoch stellt die NYU-Studie einen Schritt in diese Richtung dar, indem sie eine hochpr\u00e4zise Sprachdekodierung mit leichteren Elektrodenarrays demonstriert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In Zukunft will das NYU-Team seine Modelle f\u00fcr die Sprachdekodierung in Echtzeit weiter verfeinern, um dem Ziel n\u00e4her zu kommen, nat\u00fcrliche, fl\u00fcssige Gespr\u00e4che f\u00fcr Menschen mit Sprachbehinderungen zu erm\u00f6glichen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie beabsichtigen auch, das System an implantierbare drahtlose Ger\u00e4te anzupassen, die im t\u00e4glichen Leben verwendet werden k\u00f6nnen.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Ein Forscherteam der New York University hat Fortschritte bei der neuronalen Sprachdekodierung erzielt, die uns einer Zukunft n\u00e4her bringen, in der Menschen, die die F\u00e4higkeit zu sprechen verloren haben, ihre Stimme wiedererlangen k\u00f6nnen.  In der in Nature Machine Intelligence ver\u00f6ffentlichten Studie wird ein neuartiges Deep-Learning-Verfahren vorgestellt, das Gehirnsignale pr\u00e4zise in verst\u00e4ndliche Sprache umwandelt.  Menschen mit Hirnverletzungen aufgrund von Schlaganf\u00e4llen, degenerativen Erkrankungen oder k\u00f6rperlichen Traumata k\u00f6nnen diese Systeme zur Kommunikation nutzen, indem sie ihre Gedanken oder die beabsichtigte Sprache aus neuronalen Signalen entschl\u00fcsseln. Das System des NYU-Teams basiert auf einem Deep-Learning-Modell, das die Elektrokortikographie-Signale (EKoG) des<\/p>","protected":false},"author":2,"featured_media":11501,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[203,204,178],"class_list":["post-11499","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-biotech","tag-healthcare","tag-medicine"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>NYU researchers build a groundbreaking AI speech synthesis system | DailyAI<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"NYU researchers build a groundbreaking AI speech synthesis system | DailyAI\" \/>\n<meta property=\"og:description\" content=\"A team of researchers from New York University has made progress in neural speech decoding, bringing us closer to a future in which individuals who have lost the ability to speak can regain their voice.\u00a0 The study, published in Nature Machine Intelligence, presents a novel deep learning framework that accurately translates brain signals into intelligible speech.\u00a0 People with brain injuries from strokes, degenerative conditions, or physical trauma can use these systems to communicate by decoding their thoughts or intended speech from neural signals. The NYU team&#8217;s system involves a deep learning model that maps the electrocorticography (ECoG) signals from the\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-04-11T19:06:18+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-04-12T10:16:58+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1792\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"5\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"NYU researchers build a groundbreaking AI speech synthesis system\",\"datePublished\":\"2024-04-11T19:06:18+00:00\",\"dateModified\":\"2024-04-12T10:16:58+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/\"},\"wordCount\":970,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/04\\\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp\",\"keywords\":[\"Biotech\",\"Healthcare\",\"Medicine\"],\"articleSection\":[\"Industry\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/\",\"name\":\"NYU researchers build a groundbreaking AI speech synthesis system | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/04\\\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp\",\"datePublished\":\"2024-04-11T19:06:18+00:00\",\"dateModified\":\"2024-04-12T10:16:58+00:00\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/04\\\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/04\\\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp\",\"width\":1792,\"height\":1024,\"caption\":\"AI speech\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/04\\\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"NYU researchers build a groundbreaking AI speech synthesis system\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"NYU-Forscher bauen ein bahnbrechendes KI-Sprachsynthesesystem | DailyAI","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/","og_locale":"de_DE","og_type":"article","og_title":"NYU researchers build a groundbreaking AI speech synthesis system | DailyAI","og_description":"A team of researchers from New York University has made progress in neural speech decoding, bringing us closer to a future in which individuals who have lost the ability to speak can regain their voice.\u00a0 The study, published in Nature Machine Intelligence, presents a novel deep learning framework that accurately translates brain signals into intelligible speech.\u00a0 People with brain injuries from strokes, degenerative conditions, or physical trauma can use these systems to communicate by decoding their thoughts or intended speech from neural signals. The NYU team&#8217;s system involves a deep learning model that maps the electrocorticography (ECoG) signals from the","og_url":"https:\/\/dailyai.com\/de\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/","og_site_name":"DailyAI","article_published_time":"2024-04-11T19:06:18+00:00","article_modified_time":"2024-04-12T10:16:58+00:00","og_image":[{"width":1792,"height":1024,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp","type":"image\/webp"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"5\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"NYU researchers build a groundbreaking AI speech synthesis system","datePublished":"2024-04-11T19:06:18+00:00","dateModified":"2024-04-12T10:16:58+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/"},"wordCount":970,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp","keywords":["Biotech","Healthcare","Medicine"],"articleSection":["Industry"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/","url":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/","name":"NYU-Forscher bauen ein bahnbrechendes KI-Sprachsynthesesystem | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp","datePublished":"2024-04-11T19:06:18+00:00","dateModified":"2024-04-12T10:16:58+00:00","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/04\/DALL\u00b7E-2024-04-11-20.05.57-A-minimalist-scene-showing-an-abstract-representation-of-a-brain-interconnected-with-audio-waves-symbolizing-speech.-The-brain-is-depicted-in-the-cent.webp","width":1792,"height":1024,"caption":"AI speech"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/04\/nyu-researchers-build-a-groundbreaking-ai-speech-synthesis-system\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"NYU researchers build a groundbreaking AI speech synthesis system"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/11499","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=11499"}],"version-history":[{"count":13,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/11499\/revisions"}],"predecessor-version":[{"id":11523,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/11499\/revisions\/11523"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/11501"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=11499"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=11499"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=11499"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}