{"id":8052,"date":"2023-12-06T17:03:36","date_gmt":"2023-12-06T17:03:36","guid":{"rendered":"https:\/\/dailyai.com\/?p=8052"},"modified":"2024-03-28T00:40:52","modified_gmt":"2024-03-28T00:40:52","slug":"google-launches-its-new-gemini-multi-modal-family-of-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","title":{"rendered":"Google bringt seine bahnbrechende Gemini-Familie multimodaler Modelle auf den Markt"},"content":{"rendered":"<p><strong>Google hat seine Gemini-Familie von multimodalen KI-Modellen auf den Markt gebracht, eine dramatische Entwicklung in einer Branche, die noch immer von den Ereignissen bei OpenAI ersch\u00fcttert ist.<\/strong><\/p>\n<p>Gemini ist eine multimodale Familie von Modellen, die in der Lage sind, eine Mischung aus Text, Bildern, Audio und Video zu verarbeiten und zu verstehen.<\/p>\n<p>Sundar Pichai, CEO von Google, und Demis Hassabis, CEO von Google DeepMind, setzen gro\u00dfe Erwartungen in Gemini. Google plant, es in die umfangreichen Produkte und Dienste von Google zu integrieren, darunter Suche, Maps und Chrome.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Wir freuen uns, \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6 ank\u00fcndigen zu k\u00f6nnen: <a href=\"https:\/\/twitter.com\/Google?ref_src=twsrc%5Etfw\">@Google<\/a>das gr\u00f6\u00dfte und leistungsf\u00e4higste KI-Modell der Welt.<\/p>\n<p>Es ist von Haus aus multimodal ausgelegt und kann Text, Code, Audio, Bild und Video verstehen und verarbeiten - und erreicht bei vielen Aufgaben eine Spitzenleistung. \ud83e\uddf5 <a href=\"https:\/\/t.co\/mwHZTDTBuG\">https:\/\/t.co\/mwHZTDTBuG<\/a> <a href=\"https:\/\/t.co\/zfLlCGuzmV\">pic.twitter.com\/zfLlCGuzmV<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732416095355814277?ref_src=twsrc%5Etfw\">6. Dezember 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Gemini zeichnet sich durch umfassende Multimodalit\u00e4t aus und verarbeitet und interagiert mit Text, Bildern, Video und Audio. W\u00e4hrend wir uns an die Verarbeitung von Text und Bildern gew\u00f6hnt haben, betreten Audio und Video Neuland und bieten aufregende neue M\u00f6glichkeiten f\u00fcr den Umgang mit Rich Media.<\/p>\n<p>Hassabis bemerkt: \"Diese Modelle verstehen die Welt um sie herum einfach besser.\"<\/p>\n<p>Pichai betonte die Verkn\u00fcpfung des Modells mit den Google-Produkten und -Diensten: \"Eine der St\u00e4rken dieses Moments ist, dass man an einer zugrundeliegenden Technologie arbeiten und sie verbessern kann, und das flie\u00dft sofort in unsere Produkte ein.\"<\/p>\n<p>Zwillinge nehmen drei verschiedene Formen an, n\u00e4mlich:<\/p>\n<ul>\n<li><strong>Gemini Nano:<\/strong> Eine abgespeckte Version f\u00fcr Android-Ger\u00e4te, die Offline- und native Funktionen bietet.<\/li>\n<li><strong>Gemini Pro:<\/strong> Eine fortschrittlichere Version, die zahlreiche KI-Dienste von Google, darunter Bard, unterst\u00fctzen wird.<\/li>\n<li><strong>Zwillinge Ultra:<\/strong> Die leistungsst\u00e4rkste Iteration, die in erster Linie f\u00fcr Rechenzentren und Unternehmensanwendungen entwickelt wurde, soll im n\u00e4chsten Jahr ver\u00f6ffentlicht werden.<\/li>\n<\/ul>\n<p>In Bezug auf die Leistung \u00fcbertrifft Gemini laut Google GPT-4 in 30 von 32 Benchmarks, insbesondere beim Verstehen und der Interaktion mit Video und Audio. Diese Leistung wird darauf zur\u00fcckgef\u00fchrt, dass Gemini von Anfang an als multisensorisches Modell konzipiert wurde.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Bard erh\u00e4lt sein bisher gr\u00f6\u00dftes Upgrade mit einer speziell abgestimmten Version von Gemini Pro.<\/p>\n<p>Von heute an wird sie weitaus leistungsf\u00e4higer sein in Bereichen wie:<br \/>\n\ud83d\udd18 Verstehen<br \/>\n\ud83d\udd18 Zusammenfassend<br \/>\n\ud83d\udd18 Vernunft<br \/>\n\ud83d\udd18 Kodierung<br \/>\n\ud83d\udd18 Planung<\/p>\n<p>Und mehr. \u2193 <a href=\"https:\/\/t.co\/TJR12OioxU\">https:\/\/t.co\/TJR12OioxU<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732430045275140415?ref_src=twsrc%5Etfw\">6. Dezember 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nDar\u00fcber hinaus war Google sehr daran interessiert, die Effizienz von Gemini hervorzuheben.<\/p>\n<p>Es wurde auf Googles eigenen Tensor Processing Units (TPUs) trainiert und ist schneller und kosteng\u00fcnstiger als fr\u00fchere Modelle. Zusammen mit Gemini bringt Google TPU v5p f\u00fcr Rechenzentren auf den Markt, um die Effizienz der Ausf\u00fchrung gro\u00dfer Modelle zu verbessern.<\/p>\n<h2>Ist Gemini der ChatGPT-Killer?<\/h2>\n<p>Google ist eindeutig optimistisch in Bezug auf Gemini. Zu Beginn des Jahres wurde eine <a href=\"https:\/\/dailyai.com\/de\/2023\/09\/googles-gemini-is-expected-to-outperform-gpt-4\/\">'Leck' von Semi Analysis<\/a> deutete an, dass Gemini der Konkurrenz den Rang ablaufen und Google von einem peripheren Mitglied der generativen KI-Branche zur Hauptfigur vor OpenAI aufsteigen k\u00f6nnte.<\/p>\n<p>Zus\u00e4tzlich zu seiner Multimodalit\u00e4t ist Gemini angeblich das erste Modell, das menschliche Experten beim Massive Multitasking Language Understanding (MMLU) Benchmark \u00fcbertrifft, bei dem Weltwissen und Probleml\u00f6sungsf\u00e4higkeiten in 57 F\u00e4chern wie Mathematik, Physik, Geschichte, Recht, Medizin und Ethik getestet werden.<\/p>\n<p><iframe loading=\"lazy\" title=\"Mathematik &amp; Physik mit AI | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/K4pX1VAxaAI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Pichai sagt, dass der Start von Gemini eine \"neue \u00c4ra\" in der KI einl\u00e4utet und betont, dass Gemini vom umfangreichen Produktkatalog von Google profitieren wird.<\/p>\n<p>Die Integration von Suchmaschinen ist besonders interessant, da <a href=\"https:\/\/dailyai.com\/de\/2023\/09\/google-turns-25-will-ai-herald-another-25-years-of-success\/\">Google dominiert diesen Bereich<\/a> und hat die Vorteile des weltweit umfangreichsten Suchindexes zur Hand.<\/p>\n<p>Mit der Ver\u00f6ffentlichung von Gemini ist Google fest im Rennen um die KI, und die Menschen werden alles daran setzen, es gegen GPT-4 zu testen.<\/p>\n<h2>Gemini-Benchmark-Tests und -Analyse<\/h2>\n<p>In einem <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#performance\">Blog-Beitrag<\/a>Google ver\u00f6ffentlichte Benchmark-Ergebnisse, die zeigen, dass Gemini Ultra den GPT-4 in den meisten Tests schl\u00e4gt. Dar\u00fcber hinaus verf\u00fcgt es \u00fcber fortschrittliche Codierungsfunktionen und zeigt herausragende Leistungen in Codierungsbenchmarks wie HumanEval und Natural2Code.<\/p>\n<p><iframe loading=\"lazy\" title=\"Einsatz von AI zur L\u00f6sung komplexer Probleme | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/LvGmVmHv69s?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Hier sind die Benchmark-Daten. Beachten Sie, dass diese Messungen die noch nicht freigegebene Gemini Ultra Version verwenden. Gemini kann nicht als ChatGPT-Killer betrachtet werden, bis n\u00e4chstes Jahr. Und Sie k\u00f6nnen darauf wetten, dass OpenAI so schnell wie m\u00f6glich gegen Gemini vorgehen wird.<\/p>\n<h3>Text\/NLP-Benchmark-Leistung<\/h3>\n<p><strong>Allgemeines Wissen:<\/strong><\/p>\n<ul>\n<li>MMLU (Massive Multitasking Language Understanding):\n<ul>\n<li>Gemini Ultra: 90.0% (Chain of Thought bei 32 Beispielen)<\/li>\n<li>GPT-4: 86,4% (5 Sch\u00fcsse, gemeldet)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Begr\u00fcndungen:<\/strong><\/p>\n<ul>\n<li>Big-Bench Hard (Vielf\u00e4ltige, anspruchsvolle Aufgaben, die mehrstufiges Denken erfordern):\n<ul>\n<li>Gemini Ultra: 83.6% (3-Schuss)<\/li>\n<li>GPT-4: 83.1% (3-Schuss, API)<\/li>\n<\/ul>\n<\/li>\n<li>DROP (Leseverstehen, F1-Punktzahl):\n<ul>\n<li>Gemini Ultra: 82,4 (Variable Sch\u00fcsse)<\/li>\n<li>GPT-4: 80,9 (3-Schuss, gemeldet)<\/li>\n<\/ul>\n<\/li>\n<li>HellaSwag (Commonsense reasoning for everyday tasks):\n<ul>\n<li>Gemini Ultra: 87.8% (10-sch\u00fcssig)<\/li>\n<li>GPT-4: 95,3% (10 Sch\u00fcsse, gemeldet)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Mathematik:<\/strong><\/p>\n<ul>\n<li>GSM8K (Grundlegende arithmetische Manipulationen einschlie\u00dflich mathematischer Probleme der Grundschule):\n<ul>\n<li>Gemini Ultra: 94,4% (Mehrheit bei 32 Beispielen)<\/li>\n<li>GPT-4: 92.0% (5-Schuss Gedankenkette, gemeldet)<\/li>\n<\/ul>\n<\/li>\n<li>MATH (Anspruchsvolle mathematische Probleme, einschlie\u00dflich Algebra, Geometrie, Vorkalk\u00fcl und andere):\n<ul>\n<li>Gemini Ultra: 53.2% (4-Schuss)<\/li>\n<li>GPT-4: 52,9% (4-Schuss, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Code:<\/strong><\/p>\n<ul>\n<li>HumanEval (Python-Code-Generierung):\n<ul>\n<li>Gemini Ultra: 74,4% (0-Schuss, interner Test)<\/li>\n<li>GPT-4: 67,0% (0-Schuss, gemeldet)<\/li>\n<\/ul>\n<\/li>\n<li>Natural2Code (Python-Code-Generierung, neuer, \u00fcberwachter Datensatz, \u00e4hnlich wie HumanEval, nicht im Internet ver\u00f6ffentlicht):\n<ul>\n<li>Gemini Ultra: 74.9% (0-Schuss)<\/li>\n<li>GPT-4: 73,9% (0-Schuss, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Multimodale Benchmark-Leistung<\/h3>\n<p>Die multimodalen F\u00e4higkeiten des KI-Modells Gemini von Google werden auch mit dem GPT-4V von OpenAI verglichen.<\/p>\n<p><strong>Bildverst\u00e4ndnis und -verarbeitung:<\/strong><\/p>\n<ul>\n<li><strong>MMMU (Multi-discipline College-level Reasoning Problems):<\/strong>\n<ul>\n<li>Gemini Ultra: 59,4% (0-Schuss-Pass@1, nur Pixel)<\/li>\n<li>GPT-4V: 56,8% (0-Schuss-Durchgang@1)<\/li>\n<\/ul>\n<\/li>\n<li><strong>VQAv2 (Natural Image Understanding):<\/strong>\n<ul>\n<li>Gemini Ultra: 77,8% (0-Aufnahme, nur Pixel)<\/li>\n<li>GPT-4V: 77.2% (0-Schuss)<\/li>\n<\/ul>\n<\/li>\n<li><strong>TextVQA (OCR auf nat\u00fcrlichen Bildern):<\/strong>\n<ul>\n<li>Gemini Ultra: 82,3% (0-Aufnahme, nur Pixel)<\/li>\n<li>GPT-4V: 78,0% (0-Schuss)<\/li>\n<\/ul>\n<\/li>\n<li><strong>DocVQA (Dokumentverstehen):<\/strong>\n<ul>\n<li>Gemini Ultra: 90.9% (0-Schuss, nur Pixel)<\/li>\n<li>GPT-4V: 88,4% (0-Aufnahme, nur Pixel)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Infografik VQA (Infografik Verstehen):<\/strong>\n<ul>\n<li>Gemini Ultra: 80.3% (0-Schuss, nur Pixel)<\/li>\n<li>GPT-4V: 75.1% (0-Schuss, nur Pixel)<\/li>\n<\/ul>\n<\/li>\n<li><strong>MathVista (Mathematisches Denken in visuellen Kontexten):<\/strong>\n<ul>\n<li>Gemini Ultra: 53.0% (0-Aufnahme, nur Pixel)<\/li>\n<li>GPT-4V: 49,9% (0-Schuss)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Videoverarbeitung:<\/strong><\/p>\n<ul>\n<li><strong>VATEX (englische Videountertitelung, CIDEr Score):<\/strong>\n<ul>\n<li>Gemini Ultra: 62,7 (4-Schuss)<\/li>\n<li>DeepMind Flamingo: 56,0 (4-Schuss)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Wahrnehmungstest MCQA (Video-Fragenbeantwortung):<\/strong>\n<ul>\n<li>Gemini Ultra: 54,7% (0-Schuss)<\/li>\n<li>SeViLA: 46.3% (0-Schuss)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Audio-Verarbeitung:<\/strong><\/p>\n<ul>\n<li><strong>CoVoST 2 (Automatische Sprach\u00fcbersetzung, 21 Sprachen, BLEU-Score):<\/strong>\n<ul>\n<li>Gemini Pro: 40.1<\/li>\n<li>Whisper v2: 29.1<\/li>\n<\/ul>\n<\/li>\n<li><strong>FLEURS (Automatische Spracherkennung, 62 Sprachen, Wortfehlerrate):<\/strong>\n<ul>\n<li>Gemini Pro: 7,6% (niedriger ist besser)<\/li>\n<li>Whisper v3: 17.6%<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2>Das ethische Engagement von Google<\/h2>\n<p class=\"whitespace-pre-wrap\">In einem <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#scalable-efficient\">Blog-Beitrag<\/a>betonte Google sein Engagement f\u00fcr verantwortungsvolle und ethische KI-Praktiken.<\/p>\n<p class=\"whitespace-pre-wrap\">Nach Angaben von Google wurde Gemini strengeren Tests unterzogen als jede fr\u00fchere Google-KI, wobei Faktoren wie Voreingenommenheit, Toxizit\u00e4t, Cybersicherheitsbedrohungen und Missbrauchspotenzial bewertet wurden. Mit Hilfe gegnerischer Techniken konnten Probleme fr\u00fchzeitig erkannt werden. Externe Experten f\u00fchrten dann Stresstests und \"Red-Teams\" mit den Modellen durch, um zus\u00e4tzliche Schwachstellen zu identifizieren.<\/p>\n<p class=\"whitespace-pre-wrap\">Google erkl\u00e4rt, dass Verantwortung und Sicherheit inmitten des raschen Fortschritts der KI weiterhin Priorit\u00e4t haben werden. Das Unternehmen half bei der Gr\u00fcndung von Branchengruppen zur Festlegung bew\u00e4hrter Verfahren, darunter MLCommons und das Secure AI Framework (SAIF).<\/p>\n<p class=\"whitespace-pre-wrap\">Google verpflichtet sich zur weiteren Zusammenarbeit mit Forschern, Regierungen und Organisationen der Zivilgesellschaft weltweit.<\/p>\n<h2>Gemini Ultra Ver\u00f6ffentlichung<\/h2>\n<p class=\"whitespace-pre-wrap\">Im Moment beschr\u00e4nkt Google den Zugang zu seinem leistungsst\u00e4rksten Modell, Gemini Ultra, das Anfang n\u00e4chsten Jahres auf den Markt kommen wird.<\/p>\n<p class=\"whitespace-pre-wrap\">Zuvor werden ausgew\u00e4hlte Entwickler und Experten mit Ultra experimentieren und Feedback geben. Die Markteinf\u00fchrung erfolgt zeitgleich mit einer neuen, hochmodernen KI-Modellplattform oder, wie Google es nennt, einer \"Erfahrung\" namens Bard Advanced.<\/p>\n<h2>Gemini f\u00fcr Entwickler<\/h2>\n<p>Ab dem 13. Dezember erhalten Entwickler und Unternehmenskunden \u00fcber die Gemini-API, die in Google AI Studio oder Google Cloud Vertex AI verf\u00fcgbar ist, Zugang zu Gemini Pro.<\/p>\n<p><strong>Google AI Studio:<\/strong> Google AI Studio ist ein benutzerfreundliches, webbasiertes Tool, das Entwicklern helfen soll, Anwendungen mit einem API-Schl\u00fcssel zu entwickeln und zu starten. Diese kostenlose Ressource ist ideal f\u00fcr diejenigen, die sich in der Anfangsphase der App-Entwicklung befinden.<\/p>\n<p><strong>Vertex AI:<\/strong> Vertex AI ist eine umfassendere KI-Plattform und bietet vollst\u00e4ndig verwaltete Dienste. Sie l\u00e4sst sich nahtlos in Google Cloud integrieren und bietet dar\u00fcber hinaus Sicherheit, Datenschutz und die Einhaltung von Data-Governance-Vorschriften f\u00fcr Unternehmen.<\/p>\n<p>Zus\u00e4tzlich zu diesen Plattformen werden Android-Entwickler in der Lage sein, Gemini Nano f\u00fcr On-Device-Aufgaben zu nutzen. Es wird f\u00fcr die Integration \u00fcber AICore verf\u00fcgbar sein. Diese neue Systemfunktion wird mit Android 14 eingef\u00fchrt, beginnend mit den Pixel 8 Pro-Ger\u00e4ten.<\/p>\n<h2>Google hat die Tr\u00fcmpfe in der Hand, vorerst<\/h2>\n<p>OpenAI und Google unterscheiden sich in einem wichtigen Punkt: Google entwickelt eine ganze Reihe anderer Tools und Produkte im eigenen Haus, darunter auch solche, die t\u00e4glich von Milliarden von Menschen genutzt werden.<\/p>\n<p>Die Rede ist nat\u00fcrlich von Android, Chrome, Google Mail, Google Workplace und Google Search.<\/p>\n<p>OpenAI hat durch seine Allianz mit Microsoft \u00e4hnliche M\u00f6glichkeiten durch Copilot, aber das muss erst noch richtig durchstarten.<\/p>\n<p>Und wenn wir ehrlich sind, hat Google in diesen Produktkategorien wahrscheinlich das Sagen.<\/p>\n<p>Google hat das Rennen um die KI weiter vorangetrieben, aber Sie k\u00f6nnen sicher sein, dass dies die Entwicklung von OpenAI in Richtung GPT-5 und AGI nur weiter vorantreiben wird.<\/p>","protected":false},"excerpt":{"rendered":"<p>Google hat seine Gemini-Familie von multimodalen KI-Modellen auf den Markt gebracht, eine dramatische Entwicklung in einer Branche, die noch immer von den Ereignissen bei OpenAI ersch\u00fcttert ist. Gemini ist eine multimodale Familie von Modellen, die eine Mischung aus Text, Bildern, Audio und Video verarbeiten und verstehen k\u00f6nnen. Sundar Pichai, CEO von Google, und Demis Hassabis, CEO von Google DeepMind, setzen gro\u00dfe Erwartungen in Gemini. Google plant, es in die umfangreichen Produkte und Dienste von Google zu integrieren, darunter Suche, Maps und Chrome. Wir freuen uns, \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6 anzuk\u00fcndigen: Das gr\u00f6\u00dfte und leistungsf\u00e4higste KI-Modell von @Google. Gebaut, um nativ multimodal zu sein, kann es Text, Code und Audio verstehen und bedienen,<\/p>","protected":false},"author":2,"featured_media":2402,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[125,147,383,102],"class_list":["post-8052","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-bard","tag-deepmind","tag-gemini","tag-google"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI<\/title>\n<meta name=\"description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-06T17:03:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:40:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"6\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"wordCount\":1356,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"keywords\":[\"Bard\",\"DeepMind\",\"Gemini\",\"Google\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"description\":\"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"width\":1000,\"height\":667,\"caption\":\"Google Med-PaLM 2\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Google stellt seine bahnbrechende Gemini-Familie von multimodalen Modellen vor | DailyAI","description":"Nur wenige Tage nach den Berichten, die nahelegten, dass Googles geheimnisvolles Gemini-Projekt verschoben wurde, hat Google es auf die KI-Industrie losgelassen, die immer noch von den Ereignissen auf der OpenAI geschockt ist.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_locale":"de_DE","og_type":"article","og_title":"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI","og_description":"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.","og_url":"https:\/\/dailyai.com\/de\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_site_name":"DailyAI","article_published_time":"2023-12-06T17:03:36+00:00","article_modified_time":"2024-03-28T00:40:52+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"6\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Google unleashes its groundbreaking Gemini family of multi-modal models","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"wordCount":1356,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","keywords":["Bard","DeepMind","Gemini","Google"],"articleSection":{"1":"Industry"},"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","url":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","name":"Google stellt seine bahnbrechende Gemini-Familie von multimodalen Modellen vor | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","description":"Nur wenige Tage nach den Berichten, die nahelegten, dass Googles geheimnisvolles Gemini-Projekt verschoben wurde, hat Google es auf die KI-Industrie losgelassen, die immer noch von den Ereignissen auf der OpenAI geschockt ist.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","width":1000,"height":667,"caption":"Google Med-PaLM 2"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Google unleashes its groundbreaking Gemini family of multi-modal models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/8052","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=8052"}],"version-history":[{"count":16,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/8052\/revisions"}],"predecessor-version":[{"id":8084,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/8052\/revisions\/8084"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/2402"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=8052"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=8052"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=8052"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}