{"id":8052,"date":"2023-12-06T17:03:36","date_gmt":"2023-12-06T17:03:36","guid":{"rendered":"https:\/\/dailyai.com\/?p=8052"},"modified":"2024-03-28T00:40:52","modified_gmt":"2024-03-28T00:40:52","slug":"google-launches-its-new-gemini-multi-modal-family-of-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/es\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","title":{"rendered":"Google lanza su innovadora familia de modelos multimodales Gemini"},"content":{"rendered":"<p><strong>Google ha lanzado su familia Gemini de modelos de IA multimodal, una jugada espectacular en un sector a\u00fan conmocionado por lo sucedido en OpenAI.<\/strong><\/p>\n<p>Gemini es una familia multimodal de modelos capaces de procesar y comprender una mezcla de texto, im\u00e1genes, audio y v\u00eddeo.<\/p>\n<p>Sundar Pichai, CEO de Google, y Demis Hassabis, CEO de Google DeepMind, tienen grandes expectativas puestas en Gemini. Google planea integrarlo en todos sus productos y servicios, incluidos Google Search, Maps y Chrome.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Nos complace anunciar \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: <a href=\"https:\/\/twitter.com\/Google?ref_src=twsrc%5Etfw\">@Google<\/a>El modelo de IA m\u00e1s grande y capaz del mundo.<\/p>\n<p>Dise\u00f1ada para ser multimodal de forma nativa, es capaz de comprender y trabajar con texto, c\u00f3digo, audio, imagen y v\u00eddeo, y ofrece un rendimiento de vanguardia en muchas tareas. \ud83e\uddf5 <a href=\"https:\/\/t.co\/mwHZTDTBuG\">https:\/\/t.co\/mwHZTDTBuG<\/a> <a href=\"https:\/\/t.co\/zfLlCGuzmV\">pic.twitter.com\/zfLlCGuzmV<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732416095355814277?ref_src=twsrc%5Etfw\">6 de diciembre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Gemini hace gala de una multimodalidad integral, ya que procesa e interact\u00faa con texto, im\u00e1genes, v\u00eddeo y audio. Aunque nos hemos acostumbrado al procesamiento de texto e im\u00e1genes, el audio y el v\u00eddeo abren nuevos caminos y ofrecen nuevas formas de manejar los medios enriquecidos.<\/p>\n<p>Hassabis se\u00f1ala: \"Estos modelos entienden mejor el mundo que les rodea\".<\/p>\n<p>Pichai hizo hincapi\u00e9 en la conectividad del modelo con los productos y servicios de Google, afirmando: \"Una de las cosas poderosas de este momento es que puedes trabajar en una tecnolog\u00eda subyacente y mejorarla e inmediatamente fluye a trav\u00e9s de nuestros productos.\"<\/p>\n<p>G\u00e9minis adoptar\u00e1 tres formas diferentes, que son:<\/p>\n<ul>\n<li><strong>Gemini Nano:<\/strong> Una versi\u00f3n m\u00e1s ligera adaptada a los dispositivos Android, que permite funcionalidades offline y nativas.<\/li>\n<li><strong>Gemini Pro:<\/strong> Una versi\u00f3n m\u00e1s avanzada, destinada a impulsar numerosos servicios de IA de Google, incluido Bard.<\/li>\n<li><strong>Gemini Ultra:<\/strong> La iteraci\u00f3n m\u00e1s potente, dise\u00f1ada principalmente para centros de datos y aplicaciones empresariales, cuyo lanzamiento est\u00e1 previsto para el a\u00f1o que viene.<\/li>\n<\/ul>\n<p>En t\u00e9rminos de rendimiento, Google afirma que Gemini supera a GPT-4 en 30 de las 32 pruebas de rendimiento, destacando especialmente en la comprensi\u00f3n e interacci\u00f3n con v\u00eddeo y audio. Este rendimiento se atribuye al dise\u00f1o de Gemini como modelo multisensorial desde el principio.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Bard recibe su mayor actualizaci\u00f3n hasta la fecha con una versi\u00f3n espec\u00edficamente ajustada de Gemini Pro.<\/p>\n<p>A partir de hoy, ser\u00e1 mucho m\u00e1s capaz en cosas como:<br \/>\n\ud83d\udd18 Comprensi\u00f3n<br \/>\n\ud83d\udd18 Resumiendo<br \/>\n\ud83d\udd18 Razonamiento<br \/>\n\ud83d\udd18 Codificaci\u00f3n<br \/>\n\ud83d\udd18 Planificaci\u00f3n<\/p>\n<p>Y m\u00e1s. \u2193 <a href=\"https:\/\/t.co\/TJR12OioxU\">https:\/\/t.co\/TJR12OioxU<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732430045275140415?ref_src=twsrc%5Etfw\">6 de diciembre de 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nAdem\u00e1s, Google quiso destacar la eficacia de Gemini.<\/p>\n<p>Entrenado en las propias unidades de procesamiento tensorial (TPU) de Google, es m\u00e1s r\u00e1pido y rentable que los modelos anteriores. Junto con Gemini, Google lanza TPU v5p para centros de datos, que mejora la eficiencia de la ejecuci\u00f3n de modelos a gran escala.<\/p>\n<h2>\u00bfEs G\u00e9minis el asesino de ChatGPT?<\/h2>\n<p>Google es claramente optimista respecto a Gemini. A principios de a\u00f1o, un <a href=\"https:\/\/dailyai.com\/es\/2023\/09\/googles-gemini-is-expected-to-outperform-gpt-4\/\">fuga\" de Semi Analysis<\/a> sugiri\u00f3 que Gemini podr\u00eda hacer saltar por los aires a la competencia, haciendo que Google pasara de ser un miembro perif\u00e9rico de la industria de la IA generativa a convertirse en el protagonista por delante de OpenAI.<\/p>\n<p>Adem\u00e1s de su multimodalidad, Gemini es supuestamente el primer modelo que supera a los expertos humanos en la prueba de comprensi\u00f3n ling\u00fc\u00edstica multitarea masiva (MMLU), que eval\u00faa el conocimiento del mundo y la capacidad de resoluci\u00f3n de problemas en 57 materias, como matem\u00e1ticas, f\u00edsica, historia, derecho, medicina y \u00e9tica.<\/p>\n<p><iframe loading=\"lazy\" title=\"Matem\u00e1ticas y f\u00edsica con IA | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/K4pX1VAxaAI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Pichai afirma que el lanzamiento de Gemini anuncia una \"nueva era\" en la IA, y subraya c\u00f3mo Gemini se beneficiar\u00e1 del amplio cat\u00e1logo de productos de Google.<\/p>\n<p>La integraci\u00f3n de motores de b\u00fasqueda es especialmente interesante, ya que <a href=\"https:\/\/dailyai.com\/es\/2023\/09\/google-turns-25-will-ai-herald-another-25-years-of-success\/\">Google domina este espacio<\/a> y tiene a su alcance las ventajas del \u00edndice de b\u00fasqueda m\u00e1s completo del mundo.<\/p>\n<p>El lanzamiento de Gemini coloca a Google en la carrera de la inteligencia artificial, y la gente se lanzar\u00e1 a probarlo contra GPT-4.<\/p>\n<h2>Pruebas y an\u00e1lisis comparativos de Gemini<\/h2>\n<p>En un <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#performance\">entrada del blog<\/a>Google ha publicado resultados de pruebas que muestran c\u00f3mo Gemini Ultra supera a GPT-4 en la mayor\u00eda de las pruebas. Tambi\u00e9n presume de capacidades de codificaci\u00f3n avanzadas, con un rendimiento sobresaliente en pruebas de codificaci\u00f3n como HumanEval y Natural2Code.<\/p>\n<p><iframe loading=\"lazy\" title=\"Utilizar la IA para resolver problemas complejos | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/LvGmVmHv69s?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Aqu\u00ed est\u00e1n los datos de referencia. Ten en cuenta que estas mediciones utilizan la versi\u00f3n Gemini Ultra a\u00fan no lanzada. Gemini no puede considerarse un asesino de ChatGPT hasta el a\u00f1o que viene. Y puedes apostar a que OpenAI se mover\u00e1 para contrarrestar a Gemini lo antes posible.<\/p>\n<h3>Rendimiento de referencia de texto\/NLP<\/h3>\n<p><strong>Conocimientos generales:<\/strong><\/p>\n<ul>\n<li>MMLU (Massive Multitask Language Understanding):\n<ul>\n<li>Gemini Ultra: 90.0% (Cadena de pensamiento a 32 ejemplos)<\/li>\n<li>GPT-4: 86.4% (5-shot, reportado)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Razonamiento:<\/strong><\/p>\n<ul>\n<li>Big-Bench Hard (conjunto diverso de tareas desafiantes que requieren un razonamiento de varios pasos):\n<ul>\n<li>Gemini Ultra: 83,6% (3 disparos)<\/li>\n<li>GPT-4: 83,1% (3 disparos, API)<\/li>\n<\/ul>\n<\/li>\n<li>DROP (comprensi\u00f3n lectora, puntuaci\u00f3n F1):\n<ul>\n<li>Gemini Ultra: 82,4 (disparos variables)<\/li>\n<li>GPT-4: 80.9 (3 tiros, reportado)<\/li>\n<\/ul>\n<\/li>\n<li>HellaSwag (razonamiento de sentido com\u00fan para tareas cotidianas):\n<ul>\n<li>Gemini Ultra: 87,8% (10 disparos)<\/li>\n<li>GPT-4: 95,3% (10 disparos, comunicado)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Matem\u00e1ticas:<\/strong><\/p>\n<ul>\n<li>GSM8K (Manipulaciones aritm\u00e9ticas b\u00e1sicas, incluidos problemas matem\u00e1ticos de primaria):\n<ul>\n<li>Gemini Ultra: 94,4% (mayor\u00eda en 32 ejemplos)<\/li>\n<li>GPT-4: 92.0% (Cadena de pensamiento de 5 disparos, informado)<\/li>\n<\/ul>\n<\/li>\n<li>MATEM\u00c1TICAS (Problemas matem\u00e1ticos desafiantes que incluyen \u00e1lgebra, geometr\u00eda, prec\u00e1lculo y otros):\n<ul>\n<li>Gemini Ultra: 53.2% (4 disparos)<\/li>\n<li>GPT-4: 52,9% (4 disparos, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>C\u00f3digo:<\/strong><\/p>\n<ul>\n<li>HumanEval (generaci\u00f3n de c\u00f3digo Python):\n<ul>\n<li>Gemini Ultra: 74,4% (0 disparos, prueba interna)<\/li>\n<li>GPT-4: 67.0% (0-shot, reportado)<\/li>\n<\/ul>\n<\/li>\n<li>Natural2Code (generaci\u00f3n de c\u00f3digo Python, nuevo conjunto de datos retenido, similar a HumanEval, no filtrado en la web):\n<ul>\n<li>Gemini Ultra: 74,9% (0 disparos)<\/li>\n<li>GPT-4: 73,9% (tiro 0, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Rendimiento multimodal de referencia<\/h3>\n<p>Tambi\u00e9n se comparan las capacidades multimodales del modelo Gemini AI de Google con el GPT-4V de OpenAI.<\/p>\n<p><strong>Comprensi\u00f3n y tratamiento de im\u00e1genes:<\/strong><\/p>\n<ul>\n<li><strong>MMMU (Problemas multidisciplinares de razonamiento de nivel universitario):<\/strong>\n<ul>\n<li>Gemini Ultra: 59,4% (0-shot pass@1, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 56.8% (0-shot pass@1)<\/li>\n<\/ul>\n<\/li>\n<li><strong>VQAv2 (Comprensi\u00f3n Natural de la Imagen):<\/strong>\n<ul>\n<li>Gemini Ultra: 77,8% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 77,2% (0 disparos)<\/li>\n<\/ul>\n<\/li>\n<li><strong>TextVQA (OCR en im\u00e1genes naturales):<\/strong>\n<ul>\n<li>Gemini Ultra: 82,3% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 78,0% (disparo 0)<\/li>\n<\/ul>\n<\/li>\n<li><strong>DocVQA (Comprensi\u00f3n de documentos):<\/strong>\n<ul>\n<li>Gemini Ultra: 90,9% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 88,4% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Infographic VQA (Comprensi\u00f3n infogr\u00e1fica):<\/strong>\n<ul>\n<li>Gemini Ultra: 80,3% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 75.1% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<\/ul>\n<\/li>\n<li><strong>MathVista (Razonamiento matem\u00e1tico en contextos visuales):<\/strong>\n<ul>\n<li>Gemini Ultra: 53.0% (0 disparos, s\u00f3lo p\u00edxeles)<\/li>\n<li>GPT-4V: 49,9% (0 disparos)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Procesamiento de v\u00eddeo:<\/strong><\/p>\n<ul>\n<li><strong>VATEX (subtitulado de v\u00eddeo en ingl\u00e9s, puntuaci\u00f3n CIDEr):<\/strong>\n<ul>\n<li>Gemini Ultra: 62,7 (4 disparos)<\/li>\n<li>DeepMind Flamingo: 56,0 (4 disparos)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Test de percepci\u00f3n MCQA (Video Question Answering):<\/strong>\n<ul>\n<li>Gemini Ultra: 54,7% (0 disparos)<\/li>\n<li>SeViLA: 46,3% (0 disparos)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Procesamiento de audio:<\/strong><\/p>\n<ul>\n<li><strong>CoVoST 2 (traducci\u00f3n autom\u00e1tica de voz, 21 idiomas, puntuaci\u00f3n BLEU):<\/strong>\n<ul>\n<li>G\u00e9minis Pro: 40,1<\/li>\n<li>Whisper v2: 29,1<\/li>\n<\/ul>\n<\/li>\n<li><strong>FLEURS (Reconocimiento autom\u00e1tico del habla, 62 idiomas, tasa de error en las palabras):<\/strong>\n<ul>\n<li>Gemini Pro: 7,6% (cuanto m\u00e1s bajo, mejor)<\/li>\n<li>Whisper v3: 17.6%<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2>Compromiso \u00e9tico de Google<\/h2>\n<p class=\"whitespace-pre-wrap\">En un <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#scalable-efficient\">entrada del blog<\/a>Google subray\u00f3 su compromiso con unas pr\u00e1cticas de IA responsables y \u00e9ticas.<\/p>\n<p class=\"whitespace-pre-wrap\">Seg\u00fan Google, Gemini se someti\u00f3 a pruebas m\u00e1s rigurosas que cualquier otra IA anterior de Google, en las que se evaluaron factores como la parcialidad, la toxicidad, las amenazas a la ciberseguridad y el potencial de uso indebido. Las t\u00e9cnicas de confrontaci\u00f3n ayudaron a detectar problemas en una fase temprana. A continuaci\u00f3n, expertos externos sometieron los modelos a pruebas de estr\u00e9s y de \"red-teamed\" para identificar otros puntos ciegos.<\/p>\n<p class=\"whitespace-pre-wrap\">Google afirma que la responsabilidad y la seguridad seguir\u00e1n siendo prioridades en medio del r\u00e1pido progreso de la IA. La empresa ayud\u00f3 a poner en marcha grupos del sector para establecer mejores pr\u00e1cticas, como MLCommons y el Marco Seguro de IA (SAIF).<\/p>\n<p class=\"whitespace-pre-wrap\">Google se compromete a seguir colaborando con investigadores, gobiernos y organizaciones de la sociedad civil de todo el mundo.<\/p>\n<h2>Lanzamiento de Gemini Ultra<\/h2>\n<p class=\"whitespace-pre-wrap\">Por ahora, Google est\u00e1 limitando el acceso a la iteraci\u00f3n m\u00e1s potente de su modelo, Gemini Ultra, que llegar\u00e1 a principios del a\u00f1o que viene.<\/p>\n<p class=\"whitespace-pre-wrap\">Antes de eso, desarrolladores y expertos seleccionados experimentar\u00e1n con Ultra para dar su opini\u00f3n. El lanzamiento coincidir\u00e1 con una nueva plataforma de modelos de IA de vanguardia, o como Google llama a una \"experiencia\", denominada Bard Advanced.<\/p>\n<h2>Gemini para desarrolladores<\/h2>\n<p>A partir del 13 de diciembre, los desarrolladores y clientes empresariales tendr\u00e1n acceso a Gemini Pro a trav\u00e9s de la API Gemini, disponible en Google AI Studio o Google Cloud Vertex AI.<\/p>\n<p><strong>Google AI Studio:<\/strong> Google AI Studio es una herramienta web f\u00e1cil de usar dise\u00f1ada para ayudar a los desarrolladores a crear prototipos y lanzar aplicaciones utilizando una clave API. Este recurso gratuito es ideal para quienes se encuentran en las fases iniciales del desarrollo de aplicaciones.<\/p>\n<p><strong>Vertex AI:<\/strong> Vertex AI, una plataforma de IA m\u00e1s completa, ofrece servicios totalmente gestionados. Se integra a la perfecci\u00f3n con Google Cloud y tambi\u00e9n ofrece seguridad empresarial, privacidad y cumplimiento de la normativa sobre gobernanza de datos.<\/p>\n<p>Adem\u00e1s de estas plataformas, los desarrolladores de Android podr\u00e1n acceder a Gemini Nano para realizar tareas en el dispositivo. Estar\u00e1 disponible para su integraci\u00f3n a trav\u00e9s de AICore. Esta nueva capacidad del sistema debutar\u00e1 en Android 14, a partir de los dispositivos Pixel 8 Pro.<\/p>\n<h2>Google tiene la sart\u00e9n por el mango, por ahora<\/h2>\n<p>OpenAI y Google se diferencian en un gran aspecto: Google desarrolla internamente un mont\u00f3n de otras herramientas y productos, incluidos los que utilizan miles de millones de personas cada d\u00eda.<\/p>\n<p>Hablamos, por supuesto, de Android, Chrome, Gmail, Google Workplace y Google Search.<\/p>\n<p>OpenAI, a trav\u00e9s de su alianza con Microsoft, tiene oportunidades similares a trav\u00e9s de Copilot, pero a\u00fan no ha despegado realmente.<\/p>\n<p>Y si somos sinceros, Google probablemente domine estas categor\u00edas de productos.<\/p>\n<p>Google ha seguido adelante en la carrera de la IA, pero puede estar seguro de que esto no har\u00e1 m\u00e1s que alimentar el impulso de OpenAI hacia la GPT-5 y la AGI.<\/p>","protected":false},"excerpt":{"rendered":"<p>Google ha lanzado su familia Gemini de modelos multimodales de inteligencia artificial, una jugada espectacular en un sector a\u00fan conmocionado por lo sucedido en OpenAI. Gemini es una familia multimodal de modelos capaces de procesar y comprender una mezcla de texto, im\u00e1genes, audio y v\u00eddeo. Sundar Pichai, CEO de Google, y Demis Hassabis, CEO de Google DeepMind, tienen grandes expectativas puestas en Gemini. Google planea integrarlo en todos sus productos y servicios, incluidos Google Search, Maps y Chrome. Nos complace anunciar \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: El modelo de IA m\u00e1s grande y capaz de @Google. Construido para ser multimodal de forma nativa, puede entender y operar a trav\u00e9s de texto, c\u00f3digo y audio,<\/p>","protected":false},"author":2,"featured_media":2402,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[125,147,383,102],"class_list":["post-8052","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-bard","tag-deepmind","tag-gemini","tag-google"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI<\/title>\n<meta name=\"description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/es\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/es\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-06T17:03:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:40:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"wordCount\":1356,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"keywords\":[\"Bard\",\"DeepMind\",\"Gemini\",\"Google\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"description\":\"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"width\":1000,\"height\":667,\"caption\":\"Google Med-PaLM 2\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/es\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Google presenta su innovadora familia de modelos multimodales Gemini | DailyAI","description":"Apenas unos d\u00edas despu\u00e9s de que se informara de que el secreto proyecto Gemini de Google se hab\u00eda retrasado, Google lo ha lanzado a una industria de la IA que sigue conmocionada por lo sucedido en OpenAI.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/es\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_locale":"es_ES","og_type":"article","og_title":"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI","og_description":"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.","og_url":"https:\/\/dailyai.com\/es\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_site_name":"DailyAI","article_published_time":"2023-12-06T17:03:36+00:00","article_modified_time":"2024-03-28T00:40:52+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Escrito por":"Sam Jeans","Tiempo de lectura":"6 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Google unleashes its groundbreaking Gemini family of multi-modal models","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"wordCount":1356,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","keywords":["Bard","DeepMind","Gemini","Google"],"articleSection":{"1":"Industry"},"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","url":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","name":"Google presenta su innovadora familia de modelos multimodales Gemini | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","description":"Apenas unos d\u00edas despu\u00e9s de que se informara de que el secreto proyecto Gemini de Google se hab\u00eda retrasado, Google lo ha lanzado a una industria de la IA que sigue conmocionada por lo sucedido en OpenAI.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","width":1000,"height":667,"caption":"Google Med-PaLM 2"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Google unleashes its groundbreaking Gemini family of multi-modal models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Su dosis diaria de noticias sobre IA","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam es un escritor de ciencia y tecnolog\u00eda que ha trabajado en varias startups de IA. Cuando no est\u00e1 escribiendo, se le puede encontrar leyendo revistas m\u00e9dicas o rebuscando en cajas de discos de vinilo.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/es\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/8052","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/comments?post=8052"}],"version-history":[{"count":16,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/8052\/revisions"}],"predecessor-version":[{"id":8084,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/posts\/8052\/revisions\/8084"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media\/2402"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/media?parent=8052"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/categories?post=8052"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/es\/wp-json\/wp\/v2\/tags?post=8052"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}