{"id":8052,"date":"2023-12-06T17:03:36","date_gmt":"2023-12-06T17:03:36","guid":{"rendered":"https:\/\/dailyai.com\/?p=8052"},"modified":"2024-03-28T00:40:52","modified_gmt":"2024-03-28T00:40:52","slug":"google-launches-its-new-gemini-multi-modal-family-of-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/nb\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","title":{"rendered":"Google lanserer sin banebrytende Gemini-familie av multimodale modeller"},"content":{"rendered":"<p><strong>Google har lansert sin Gemini-familie av multimodale AI-modeller, et dramatisk trekk i en bransje som fortsatt er rystet etter hendelsene p\u00e5 OpenAI.<\/strong><\/p>\n<p>Gemini er en multimodal familie av modeller som kan behandle og forst\u00e5 en blanding av tekst, bilder, lyd og video.<\/p>\n<p>Sundar Pichai, Googles administrerende direkt\u00f8r, og Demis Hassabis, administrerende direkt\u00f8r for Google DeepMind, uttrykker store forventninger til Gemini. Google planlegger \u00e5 integrere det p\u00e5 tvers av Googles omfattende produkter og tjenester, inkludert s\u00f8k, Maps og Chrome.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Vi er glade for \u00e5 kunne kunngj\u00f8re \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: <a href=\"https:\/\/twitter.com\/Google?ref_src=twsrc%5Etfw\">@Google<\/a>'s st\u00f8rste og mest kapable AI-modell.<\/p>\n<p>Den er bygget for \u00e5 v\u00e6re multimodal, og kan forst\u00e5 og fungere p\u00e5 tvers av tekst, kode, lyd, bilde og video - og oppn\u00e5r topp ytelse p\u00e5 tvers av mange oppgaver. \ud83e\uddf5 <a href=\"https:\/\/t.co\/mwHZTDTBuG\">https:\/\/t.co\/mwHZTDTBuG<\/a> <a href=\"https:\/\/t.co\/zfLlCGuzmV\">pic.twitter.com\/zfLlCGuzmV<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732416095355814277?ref_src=twsrc%5Etfw\">6. desember 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Gemini kan skilte med omfattende multimodalitet, og kan behandle og samhandle med tekst, bilder, video og lyd. Vi har blitt vant til \u00e5 behandle tekst og bilder, men lyd og video bryter ny mark og tilbyr spennende nye m\u00e5ter \u00e5 h\u00e5ndtere rike medier p\u00e5.<\/p>\n<p>Hassabis bemerker: \"Disse modellene forst\u00e5r p\u00e5 en m\u00e5te verden rundt seg bedre.\"<\/p>\n<p>Pichai la vekt p\u00e5 modellens sammenheng med Googles produkter og tjenester, og sa: \"Noe av det som gj\u00f8r dette \u00f8yeblikket s\u00e5 kraftfullt, er at du kan jobbe med \u00e9n underliggende teknologi og gj\u00f8re den bedre, og det flyter umiddelbart p\u00e5 tvers av produktene v\u00e5re.\"<\/p>\n<p>Gemini vil ta tre forskjellige former, de er:<\/p>\n<ul>\n<li><strong>Gemini Nano:<\/strong> En lettere versjon skreddersydd for Android-enheter, med offline- og native-funksjoner.<\/li>\n<li><strong>Gemini Pro:<\/strong> En mer avansert versjon, som skal drive en rekke Google AI-tjenester, inkludert Bard.<\/li>\n<li><strong>Gemini Ultra:<\/strong> Den kraftigste iterasjonen, som f\u00f8rst og fremst er utviklet for datasentre og bedriftsapplikasjoner, skal etter planen lanseres neste \u00e5r.<\/li>\n<\/ul>\n<p>N\u00e5r det gjelder ytelse, hevder Google at Gemini overg\u00e5r GPT-4 i 30 av 32 benchmarks, og at den utmerker seg spesielt n\u00e5r det gjelder \u00e5 forst\u00e5 og samhandle med video og lyd. Denne ytelsen tilskrives Geminis design som en multisensorisk modell fra starten av.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Bard f\u00e5r sin hittil st\u00f8rste oppgradering med en spesialtilpasset versjon av Gemini Pro.<\/p>\n<p>Fra i dag vil den v\u00e6re langt mer kapabel til ting som:<br \/>\n\ud83d\udd18 Forst\u00e5else<br \/>\n\ud83d\udd18 Oppsummering<br \/>\n\ud83d\udd18 Resonnering<br \/>\n\ud83d\udd18 Koding<br \/>\n\ud83d\udd18 Planlegging<\/p>\n<p>Og mer til. \u2193 <a href=\"https:\/\/t.co\/TJR12OioxU\">https:\/\/t.co\/TJR12OioxU<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732430045275140415?ref_src=twsrc%5Etfw\">6. desember 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nI tillegg var Google opptatt av \u00e5 fremheve Geminis effektivitet.<\/p>\n<p>Den er trent p\u00e5 Googles egne Tensor Processing Units (TPU-er), og er raskere og mer kostnadseffektiv enn tidligere modeller. I tillegg til Gemini lanserer Google TPU v5p for datasentre, noe som forbedrer effektiviteten ved kj\u00f8ring av modeller i stor skala.<\/p>\n<h2>Er Gemini ChatGPT-dreperen?<\/h2>\n<p>Google er tydeligvis optimistisk n\u00e5r det gjelder Gemini. Tidligere i \u00e5r ble en <a href=\"https:\/\/dailyai.com\/nb\/2023\/09\/googles-gemini-is-expected-to-outperform-gpt-4\/\">\"lekkasje\" av Semi Analysis<\/a> antydet at Gemini kunne bl\u00e5se konkurrentene ut av vannet, og at Google kunne g\u00e5 fra \u00e5 v\u00e6re et perifert medlem av den generative AI-industrien til \u00e5 bli hovedpersonen foran OpenAI.<\/p>\n<p>I tillegg til multimodaliteten er Gemini angivelig den f\u00f8rste modellen som har prestert bedre enn menneskelige eksperter p\u00e5 MMLU-referansen (massive multitask language understanding), som tester verdenskunnskap og probleml\u00f8sningsevner p\u00e5 tvers av 57 fagomr\u00e5der, som matematikk, fysikk, historie, juss, medisin og etikk.<\/p>\n<p><iframe loading=\"lazy\" title=\"Matematikk og fysikk med AI | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/K4pX1VAxaAI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Pichai sier at lanseringen av Gemini innvarsler en \"ny \u00e6ra\" innen AI, og understreker hvordan Gemini vil dra nytte av Googles omfattende produktkatalog.<\/p>\n<p>Integrering av s\u00f8kemotorer er spesielt interessant, ettersom <a href=\"https:\/\/dailyai.com\/nb\/2023\/09\/google-turns-25-will-ai-herald-another-25-years-of-success\/\">Google dominerer dette omr\u00e5det<\/a> og har fordelene med verdens mest omfattende s\u00f8keindeks til fingerspissene.<\/p>\n<p>Utgivelsen av Gemini plasserer Google i det p\u00e5g\u00e5ende AI-kappl\u00f8pet, og folk vil v\u00e6re helt ute etter \u00e5 teste den mot GPT-4.<\/p>\n<h2>Tester og analyser av Gemini-benchmarks<\/h2>\n<p>I en <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#performance\">blogginnlegg<\/a>I forbindelse med lanseringen av Gemini Ultra, publiserte Google referanseresultater som viser hvordan Gemini Ultra sl\u00e5r GPT-4 i de fleste tester. Den kan ogs\u00e5 skilte med avanserte kodingsegenskaper, med fremragende ytelse i kodingsbenchmarks som HumanEval og Natural2Code.<\/p>\n<p><iframe loading=\"lazy\" title=\"Bruke kunstig intelligens til \u00e5 l\u00f8se komplekse problemer | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/LvGmVmHv69s?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Her er referansedataene. V\u00e6r oppmerksom p\u00e5 at disse tiltakene bruker den uutgitte Gemini Ultra-versjonen. Gemini kan ikke betraktes som en ChatGPT-killer f\u00f8r neste \u00e5r. Og du kan satse p\u00e5 at OpenAI beveger seg for \u00e5 motvirke Gemini ASAP.<\/p>\n<h3>Referanseytelse for tekst\/NLP<\/h3>\n<p><strong>Generell kunnskap:<\/strong><\/p>\n<ul>\n<li>MMLU (Massive Multitask Language Understanding):\n<ul>\n<li>Gemini Ultra: 90.0% (Tankekjede ved 32 eksempler)<\/li>\n<li>GPT-4: 86,4% (5 skudd, rapportert)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Begrunnelse:<\/strong><\/p>\n<ul>\n<li>Big-Bench Hard (et variert sett med utfordrende oppgaver som krever resonnering i flere trinn):\n<ul>\n<li>Gemini Ultra: 83,6% (3 skudd)<\/li>\n<li>GPT-4: 83.1% (3-skudd, API)<\/li>\n<\/ul>\n<\/li>\n<li>DROP (leseforst\u00e5else, F1-poengsum):\n<ul>\n<li>Gemini Ultra: 82,4 (variable skudd)<\/li>\n<li>GPT-4: 80,9 (3 skudd, rapportert)<\/li>\n<\/ul>\n<\/li>\n<li>HellaSwag (Commonsense reasoning for everyday tasks):\n<ul>\n<li>Gemini Ultra: 87,8% (10 skudd)<\/li>\n<li>GPT-4: 95,3% (10 skudd, rapportert)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Matematikk:<\/strong><\/p>\n<ul>\n<li>GSM8K (Grunnleggende aritmetiske manipulasjoner, inkludert matematikkoppgaver for grunnskolen):\n<ul>\n<li>Gemini Ultra: 94,4% (flertallet ved 32 eksempler)<\/li>\n<li>GPT-4: 92.0% (tankekjede med 5 skudd, rapportert)<\/li>\n<\/ul>\n<\/li>\n<li>MATH (Utfordrende matteoppgaver, inkludert algebra, geometri, prekalkulus og annet):\n<ul>\n<li>Gemini Ultra: 53.2% (4 skudd)<\/li>\n<li>GPT-4: 52.9% (4 skudd, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Kode:<\/strong><\/p>\n<ul>\n<li>HumanEval (generering av Python-kode):\n<ul>\n<li>Gemini Ultra: 74,4% (0-skudd, intern test)<\/li>\n<li>GPT-4: 67,0% (0-skudd, rapportert)<\/li>\n<\/ul>\n<\/li>\n<li>Natural2Code (generering av Python-kode, nytt datasett, HumanEval-lignende, ikke lekket p\u00e5 nettet):\n<ul>\n<li>Gemini Ultra: 74,9% (0-skudd)<\/li>\n<li>GPT-4: 73,9% (0-skudd, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Multimodal referanseytelse<\/h3>\n<p>De multimodale egenskapene til Googles Gemini AI-modell sammenlignes ogs\u00e5 med OpenAIs GPT-4V.<\/p>\n<p><strong>Bildeforst\u00e5else og bildebehandling:<\/strong><\/p>\n<ul>\n<li><strong>MMMU (Multi-discipline College-level Reasoning Problems):<\/strong>\n<ul>\n<li>Gemini Ultra: 59,4% (0-skudd pass@1, kun piksler)<\/li>\n<li>GPT-4V: 56,8% (0-skudd pass@1)<\/li>\n<\/ul>\n<\/li>\n<li><strong>VQAv2 (naturlig bildeforst\u00e5else):<\/strong>\n<ul>\n<li>Gemini Ultra: 77,8% (0-skudd, kun piksler)<\/li>\n<li>GPT-4V: 77,2% (0-skudd)<\/li>\n<\/ul>\n<\/li>\n<li><strong>TextVQA (OCR p\u00e5 naturlige bilder):<\/strong>\n<ul>\n<li>Gemini Ultra: 82,3% (0-skudd, kun piksler)<\/li>\n<li>GPT-4V: 78.0% (0-skudd)<\/li>\n<\/ul>\n<\/li>\n<li><strong>DocVQA (dokumentforst\u00e5else):<\/strong>\n<ul>\n<li>Gemini Ultra: 90.9% (0-skudd, kun piksler)<\/li>\n<li>GPT-4V: 88,4% (0-skudd, kun piksler)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Infographic VQA (Infographic Understanding):<\/strong>\n<ul>\n<li>Gemini Ultra: 80.3% (0-skudd, kun piksler)<\/li>\n<li>GPT-4V: 75.1% (0-skudd, kun piksler)<\/li>\n<\/ul>\n<\/li>\n<li><strong>MathVista (Matematisk resonnering i visuelle kontekster):<\/strong>\n<ul>\n<li>Gemini Ultra: 53.0% (0-skudd, kun piksler)<\/li>\n<li>GPT-4V: 49,9% (0-skudd)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Videobehandling:<\/strong><\/p>\n<ul>\n<li><strong>VATEX (engelsk videoteksting, CIDEr Score):<\/strong>\n<ul>\n<li>Gemini Ultra: 62,7 (4 skudd)<\/li>\n<li>DeepMind Flamingo: 56,0 (4-skudd)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Persepsjonstest MCQA (besvarelse av videosp\u00f8rsm\u00e5l):<\/strong>\n<ul>\n<li>Gemini Ultra: 54,7% (0-skudd)<\/li>\n<li>SeViLA: 46,3% (0-skudd)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Lydbehandling:<\/strong><\/p>\n<ul>\n<li><strong>CoVoST 2 (automatisk taleoversettelse, 21 spr\u00e5k, BLEU-score):<\/strong>\n<ul>\n<li>Gemini Pro: 40,1<\/li>\n<li>Whisper v2: 29.1<\/li>\n<\/ul>\n<\/li>\n<li><strong>FLEURS (automatisk talegjenkjenning, 62 spr\u00e5k, ordfeilrate):<\/strong>\n<ul>\n<li>Gemini Pro: 7,6% (lavere er bedre)<\/li>\n<li>Whisper v3: 17.6%<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2>Googles etiske forpliktelse<\/h2>\n<p class=\"whitespace-pre-wrap\">I en <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#scalable-efficient\">blogginnlegg<\/a>understreket Google sin forpliktelse til ansvarlig og etisk AI-praksis.<\/p>\n<p class=\"whitespace-pre-wrap\">If\u00f8lge Google gjennomgikk Gemini grundigere tester enn noen tidligere Google AI, og vurderte faktorer som skjevhet, toksisitet, cybersikkerhetstrusler og potensial for misbruk. Motstridende teknikker bidro til \u00e5 avdekke problemer tidlig. Eksterne eksperter stresstestet og \"red-teamet\" deretter modellene for \u00e5 identifisere flere blinde flekker.<\/p>\n<p class=\"whitespace-pre-wrap\">Google uttaler at ansvar og sikkerhet fortsatt vil v\u00e6re prioritert i den raske utviklingen innen kunstig intelligens. Selskapet har v\u00e6rt med p\u00e5 \u00e5 starte bransjegrupper for \u00e5 etablere beste praksis, blant annet MLCommons og Secure AI Framework (SAIF).<\/p>\n<p class=\"whitespace-pre-wrap\">Google lover fortsatt samarbeid med forskere, myndigheter og sivilsamfunnsorganisasjoner over hele verden.<\/p>\n<h2>Gemini Ultra-utgivelse<\/h2>\n<p class=\"whitespace-pre-wrap\">Forel\u00f8pig begrenser Google tilgangen til sin kraftigste modell-iterasjon, Gemini Ultra, som kommer tidlig neste \u00e5r.<\/p>\n<p class=\"whitespace-pre-wrap\">F\u00f8r det vil utvalgte utviklere og eksperter eksperimentere med Ultra for \u00e5 gi tilbakemeldinger. Lanseringen vil sammenfalle med en ny banebrytende AI-modellplattform, eller som Google kaller en \"opplevelse\", kalt Bard Advanced.<\/p>\n<h2>Gemini for utviklere<\/h2>\n<p>Fra og med 13. desember vil utviklere og bedriftskunder f\u00e5 tilgang til Gemini Pro gjennom Gemini API, som er tilgjengelig i Google AI Studio eller Google Cloud Vertex AI.<\/p>\n<p><strong>Google AI Studio:<\/strong> Google AI Studio er et brukervennlig, nettbasert verkt\u00f8y som hjelper utviklere med \u00e5 lage prototyper og lansere applikasjoner ved hjelp av en API-n\u00f8kkel. Denne gratisressursen er ideell for dem som er i startfasen av apputviklingen.<\/p>\n<p><strong>Vertex AI:<\/strong> Vertex AI er en mer omfattende AI-plattform som tilbyr fullstendig administrerte tjenester. Den integreres s\u00f8ml\u00f8st med Google Cloud, og tilbyr ogs\u00e5 bedriftssikkerhet, personvern og samsvar med forskrifter for datastyring.<\/p>\n<p>I tillegg til disse plattformene vil Android-utviklere kunne f\u00e5 tilgang til Gemini Nano for oppgaver p\u00e5 enheten. Den vil v\u00e6re tilgjengelig for integrering via AICore. Denne nye systemfunksjonen vil debutere i Android 14, og starter med Pixel 8 Pro-enheter.<\/p>\n<h2>Google har essene, enn s\u00e5 lenge<\/h2>\n<p>OpenAI og Google skiller seg fra hverandre p\u00e5 \u00e9n viktig m\u00e5te: Google utvikler en rekke andre verkt\u00f8y og produkter internt, inkludert de som brukes av milliarder av mennesker hver dag.<\/p>\n<p>Vi snakker selvf\u00f8lgelig om Android, Chrome, Gmail, Google Workplace og Google S\u00f8k.<\/p>\n<p>OpenAI har gjennom sin allianse med Microsoft lignende muligheter gjennom Copilot, men det har enn\u00e5 ikke tatt av for alvor.<\/p>\n<p>Og hvis vi skal v\u00e6re \u00e6rlige, er det nok Google som har makten i alle disse produktkategoriene.<\/p>\n<p>Google har presset p\u00e5 i AI-kappl\u00f8pet, men du kan v\u00e6re sikker p\u00e5 at dette bare vil \u00f8ke OpenAIs drivkraft mot GPT-5 og AGI.<\/p>","protected":false},"excerpt":{"rendered":"<p>Google har lansert sin Gemini-familie av multimodale AI-modeller, et dramatisk trekk i en bransje som fortsatt er preget av hendelsene p\u00e5 OpenAI. Gemini er en multimodal familie av modeller som er i stand til \u00e5 behandle og forst\u00e5 en blanding av tekst, bilder, lyd og video. Sundar Pichai, Googles administrerende direkt\u00f8r, og Demis Hassabis, administrerende direkt\u00f8r for Google DeepMind, uttrykker store forventninger til Gemini. Google planlegger \u00e5 integrere det p\u00e5 tvers av Googles omfattende produkter og tjenester, inkludert s\u00f8k, Maps og Chrome. Vi er glade for \u00e5 kunngj\u00f8re \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: @Google's st\u00f8rste og mest kapable AI-modell. Den er bygget for \u00e5 v\u00e6re multimodal, og kan forst\u00e5 og operere p\u00e5 tvers av tekst, kode og lyd,<\/p>","protected":false},"author":2,"featured_media":2402,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[125,147,383,102],"class_list":["post-8052","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-bard","tag-deepmind","tag-gemini","tag-google"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI<\/title>\n<meta name=\"description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/nb\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:locale\" content=\"nb_NO\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/nb\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-06T17:03:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:40:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Skrevet av\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Ansl. lesetid\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutter\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"wordCount\":1356,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"keywords\":[\"Bard\",\"DeepMind\",\"Gemini\",\"Google\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"nb-NO\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"description\":\"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\"},\"inLanguage\":\"nb-NO\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"width\":1000,\"height\":667,\"caption\":\"Google Med-PaLM 2\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"nb-NO\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"nb-NO\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/nb\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Google lanserer sin banebrytende Gemini-familie av multimodale modeller | DailyAI","description":"Bare noen dager etter at det ble rapportert at Googles hemmelighetsfulle Gemini-prosjekt var forsinket, har de sluppet det l\u00f8s p\u00e5 en AI-industri som fortsatt er rystet etter hendelsene p\u00e5 OpenAI.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/nb\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_locale":"nb_NO","og_type":"article","og_title":"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI","og_description":"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.","og_url":"https:\/\/dailyai.com\/nb\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_site_name":"DailyAI","article_published_time":"2023-12-06T17:03:36+00:00","article_modified_time":"2024-03-28T00:40:52+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Skrevet av":"Sam Jeans","Ansl. lesetid":"6 minutter"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Google unleashes its groundbreaking Gemini family of multi-modal models","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"wordCount":1356,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","keywords":["Bard","DeepMind","Gemini","Google"],"articleSection":{"1":"Industry"},"inLanguage":"nb-NO"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","url":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","name":"Google lanserer sin banebrytende Gemini-familie av multimodale modeller | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","description":"Bare noen dager etter at det ble rapportert at Googles hemmelighetsfulle Gemini-prosjekt var forsinket, har de sluppet det l\u00f8s p\u00e5 en AI-industri som fortsatt er rystet etter hendelsene p\u00e5 OpenAI.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb"},"inLanguage":"nb-NO","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"]}]},{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","width":1000,"height":667,"caption":"Google Med-PaLM 2"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Google unleashes its groundbreaking Gemini family of multi-modal models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DagligAI","description":"Din daglige dose med AI-nyheter","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"nb-NO"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DagligAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"nb-NO","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. N\u00e5r han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/nb\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/8052","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/comments?post=8052"}],"version-history":[{"count":16,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/8052\/revisions"}],"predecessor-version":[{"id":8084,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/posts\/8052\/revisions\/8084"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media\/2402"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/media?parent=8052"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/categories?post=8052"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/nb\/wp-json\/wp\/v2\/tags?post=8052"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}