{"id":8052,"date":"2023-12-06T17:03:36","date_gmt":"2023-12-06T17:03:36","guid":{"rendered":"https:\/\/dailyai.com\/?p=8052"},"modified":"2024-03-28T00:40:52","modified_gmt":"2024-03-28T00:40:52","slug":"google-launches-its-new-gemini-multi-modal-family-of-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","title":{"rendered":"Google lancia la sua innovativa famiglia di modelli multimodali Gemini"},"content":{"rendered":"<p><strong>Google ha lanciato la sua famiglia Gemini di modelli di intelligenza artificiale multimodale, un'operazione drammatica in un settore ancora provato dagli eventi di OpenAI.<\/strong><\/p>\n<p>Gemini \u00e8 una famiglia di modelli multimodali in grado di elaborare e comprendere una miscela di testo, immagini, audio e video.<\/p>\n<p>Sundar Pichai, CEO di Google, e Demis Hassabis, CEO di Google DeepMind, esprimono grandi aspettative per Gemini. Google prevede di integrarlo in tutti i suoi prodotti e servizi, tra cui la ricerca, Maps e Chrome.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Siamo entusiasti di annunciare \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: <a href=\"https:\/\/twitter.com\/Google?ref_src=twsrc%5Etfw\">@Google<\/a>il modello di intelligenza artificiale pi\u00f9 grande e pi\u00f9 capace.<\/p>\n<p>Costruito per essere nativamente multimodale, \u00e8 in grado di comprendere e operare su testo, codice, audio, immagini e video, raggiungendo prestazioni all'avanguardia in molti compiti. \ud83e\uddf5 <a href=\"https:\/\/t.co\/mwHZTDTBuG\">https:\/\/t.co\/mwHZTDTBuG<\/a> <a href=\"https:\/\/t.co\/zfLlCGuzmV\">pic.twitter.com\/zfLlCGuzmV<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732416095355814277?ref_src=twsrc%5Etfw\">6 dicembre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Gemini vanta una multimodalit\u00e0 completa, elaborando e interagendo con testo, immagini, video e audio. Mentre siamo abituati all'elaborazione del testo e delle immagini, l'audio e il video aprono nuove strade, offrendo nuovi modi di gestire i rich media.<\/p>\n<p>Hassabis osserva: \"Questi modelli capiscono meglio il mondo che li circonda\".<\/p>\n<p>Pichai ha sottolineato la connessione del modello con i prodotti e i servizi di Google, affermando: \"Una delle cose potenti di questo momento \u00e8 che si pu\u00f2 lavorare su una tecnologia di base e migliorarla, e questo si ripercuote immediatamente sui nostri prodotti\".<\/p>\n<p>I Gemelli assumeranno tre forme diverse, che sono:<\/p>\n<ul>\n<li><strong>Gemini Nano:<\/strong> Una versione pi\u00f9 leggera, pensata per i dispositivi Android, che consente di utilizzare le funzionalit\u00e0 offline e native.<\/li>\n<li><strong>Gemini Pro:<\/strong> Una versione pi\u00f9 avanzata, destinata ad alimentare numerosi servizi di intelligenza artificiale di Google, tra cui Bard.<\/li>\n<li><strong>Gemini Ultra:<\/strong> L'iterazione pi\u00f9 potente, progettata principalmente per i data center e le applicazioni aziendali, \u00e8 prevista per il prossimo anno.<\/li>\n<\/ul>\n<p>In termini di prestazioni, Google sostiene che Gemini supera GPT-4 in 30 su 32 benchmark, eccellendo in particolare nella comprensione e nell'interazione con video e audio. Queste prestazioni sono attribuite alla progettazione di Gemini come modello multisensoriale fin dall'inizio.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Bard ottiene il suo pi\u00f9 grande aggiornamento con una versione specificamente messa a punto di Gemini Pro.<\/p>\n<p>Da oggi sar\u00e0 molto pi\u00f9 capace di fare cose come:<br \/>\n\ud83d\udd18 Comprensione<br \/>\n\ud83d\udd18 Riassunto<br \/>\n\ud83d\udd18 Ragionamento<br \/>\n\ud83d\udd18 Codifica<br \/>\n\ud83d\udd18 Pianificazione<\/p>\n<p>E altro ancora. \u2193 <a href=\"https:\/\/t.co\/TJR12OioxU\">https:\/\/t.co\/TJR12OioxU<\/a><\/p>\n<p>- Google DeepMind (@GoogleDeepMind) <a href=\"https:\/\/twitter.com\/GoogleDeepMind\/status\/1732430045275140415?ref_src=twsrc%5Etfw\">6 dicembre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nInoltre, Google ha voluto sottolineare l'efficienza di Gemini.<\/p>\n<p>Addestrata sulle Tensor Processing Unit (TPU) di Google, \u00e8 pi\u00f9 veloce ed economica dei modelli precedenti. Oltre a Gemini, Google sta lanciando TPU v5p per i data center, migliorando l'efficienza dell'esecuzione di modelli su larga scala.<\/p>\n<h2>Gemini \u00e8 l'assassino di ChatGPT?<\/h2>\n<p>Google \u00e8 chiaramente ottimista su Gemini. All'inizio dell'anno, un <a href=\"https:\/\/dailyai.com\/it\/2023\/09\/googles-gemini-is-expected-to-outperform-gpt-4\/\">'perdita' di Semi Analysis<\/a> ha suggerito che Gemini potrebbe sbaragliare la concorrenza, vedendo Google passare da membro periferico del settore dell'IA generativa a protagonista davanti a OpenAI.<\/p>\n<p>Oltre alla sua multimodalit\u00e0, Gemini \u00e8 presumibilmente il primo modello a superare gli esperti umani nel test di comprensione linguistica multitask massiva (MMLU), che verifica la conoscenza del mondo e la capacit\u00e0 di risolvere problemi in 57 materie, come matematica, fisica, storia, legge, medicina ed etica.<\/p>\n<p><iframe loading=\"lazy\" title=\"Matematica e fisica con AI | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/K4pX1VAxaAI?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Pichai ha dichiarato che il lancio di Gemini annuncia una \"nuova era\" nell'IA, sottolineando come Gemini beneficer\u00e0 dell'ampio catalogo di prodotti di Google.<\/p>\n<p>L'integrazione con i motori di ricerca \u00e8 particolarmente interessante, in quanto <a href=\"https:\/\/dailyai.com\/it\/2023\/09\/google-turns-25-will-ai-herald-another-25-years-of-success\/\">Google domina questo spazio<\/a> e ha a disposizione i vantaggi dell'indice di ricerca pi\u00f9 completo al mondo.<\/p>\n<p>Il rilascio di Gemini pone Google in una posizione di rilievo nella corsa all'intelligenza artificiale e le persone saranno impegnate a testarlo contro GPT-4.<\/p>\n<h2>Test e analisi dei benchmark Gemini<\/h2>\n<p>In un <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#performance\">post sul blog<\/a>Google ha pubblicato i risultati dei benchmark che dimostrano come Gemini Ultra abbia battuto GPT-4 nella maggior parte dei test. Vanta anche capacit\u00e0 di codifica avanzate, con prestazioni eccellenti in benchmark di codifica come HumanEval e Natural2Code.<\/p>\n<p><iframe loading=\"lazy\" title=\"Usare l&#039;intelligenza artificiale per risolvere problemi complessi | Gemini\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/LvGmVmHv69s?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<p>&nbsp;<\/p>\n<p>Ecco i dati di benchmark. Tenete presente che queste misure utilizzano la versione Gemini Ultra non ancora rilasciata. Gemini non pu\u00f2 essere considerato un killer di ChatGPT fino al prossimo anno. E potete scommettere che OpenAI si muover\u00e0 per contrastare Gemini il prima possibile.<\/p>\n<h3>Prestazioni del benchmark testo\/NLP<\/h3>\n<p><strong>Conoscenze generali:<\/strong><\/p>\n<ul>\n<li>MMLU (Massive Multitask Language Understanding):\n<ul>\n<li>Gemini Ultra: 90.0% (Catena del pensiero a 32 esempi)<\/li>\n<li>GPT-4: 86,4% (5 colpi, riferito)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Ragionamento:<\/strong><\/p>\n<ul>\n<li>Big-Bench Hard (insieme di compiti impegnativi che richiedono un ragionamento in pi\u00f9 fasi):\n<ul>\n<li>Gemini Ultra: 83,6% (3 colpi)<\/li>\n<li>GPT-4: 83.1% (3 colpi, API)<\/li>\n<\/ul>\n<\/li>\n<li>DROP (Comprensione della lettura, punteggio F1):\n<ul>\n<li>Gemini Ultra: 82,4 (scatti variabili)<\/li>\n<li>GPT-4: 80,9 (3 colpi, riferito)<\/li>\n<\/ul>\n<\/li>\n<li>HellaSwag (ragionamento di senso comune per le attivit\u00e0 quotidiane):\n<ul>\n<li>Gemini Ultra: 87,8% (10 colpi)<\/li>\n<li>GPT-4: 95,3% (10 colpi, segnalati)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Matematica:<\/strong><\/p>\n<ul>\n<li>GSM8K (manipolazioni aritmetiche di base, compresi i problemi matematici della scuola elementare):\n<ul>\n<li>Gemini Ultra: 94,4% (maggioranza a 32 esemplari)<\/li>\n<li>GPT-4: 92.0% (Catena del Pensiero a 5 colpi, riferito)<\/li>\n<\/ul>\n<\/li>\n<li>MATH (problemi matematici impegnativi, tra cui algebra, geometria, precalcolo e altri):\n<ul>\n<li>Gemini Ultra: 53.2% (4 colpi)<\/li>\n<li>GPT-4: 52,9% (4 colpi, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Codice:<\/strong><\/p>\n<ul>\n<li>HumanEval (generazione di codice Python):\n<ul>\n<li>Gemini Ultra: 74,4% (0 colpi, test interno)<\/li>\n<li>GPT-4: 67,0% (0 colpi, segnalato)<\/li>\n<\/ul>\n<\/li>\n<li>Natural2Code (generazione di codice in Python, nuovo set di dati non disponibile, simile a HumanEval, non trapelato sul web):\n<ul>\n<li>Gemini Ultra: 74,9% (0 colpi)<\/li>\n<li>GPT-4: 73,9% (0 colpi, API)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h3>Prestazioni del benchmark multimodale<\/h3>\n<p>Le capacit\u00e0 multimodali del modello Gemini AI di Google sono confrontate anche con il GPT-4V di OpenAI.<\/p>\n<p><strong>Comprensione ed elaborazione delle immagini:<\/strong><\/p>\n<ul>\n<li><strong>MMMU (Multi-discipline College-level Reasoning Problems):<\/strong>\n<ul>\n<li>Gemini Ultra: 59,4% (passaggio a 0 scatti@1, solo pixel)<\/li>\n<li>GPT-4V: 56,8% (passaggio a 0 colpi@1)<\/li>\n<\/ul>\n<\/li>\n<li><strong>VQAv2 (Natural Image Understanding):<\/strong>\n<ul>\n<li>Gemini Ultra: 77,8% (0 scatti, solo pixel)<\/li>\n<li>GPT-4V: 77,2% (0 colpi)<\/li>\n<\/ul>\n<\/li>\n<li><strong>TextVQA (OCR su immagini naturali):<\/strong>\n<ul>\n<li>Gemini Ultra: 82,3% (0 scatti, solo pixel)<\/li>\n<li>GPT-4V: 78,0% (0 colpi)<\/li>\n<\/ul>\n<\/li>\n<li><strong>DocVQA (comprensione dei documenti):<\/strong>\n<ul>\n<li>Gemini Ultra: 90,9% (0 colpi, solo pixel)<\/li>\n<li>GPT-4V: 88,4% (0 scatti, solo pixel)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Infografica VQA (comprensione dell'infografica):<\/strong>\n<ul>\n<li>Gemini Ultra: 80,3% (0 scatti, solo pixel)<\/li>\n<li>GPT-4V: 75,1% (0 scatti, solo pixel)<\/li>\n<\/ul>\n<\/li>\n<li><strong>MathVista (Ragionamento matematico in contesti visivi):<\/strong>\n<ul>\n<li>Gemini Ultra: 53.0% (0 scatti, solo pixel)<\/li>\n<li>GPT-4V: 49,9% (0 colpi)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Elaborazione video:<\/strong><\/p>\n<ul>\n<li><strong>VATEX (sottotitoli in inglese, punteggio CIDEr):<\/strong>\n<ul>\n<li>Gemini Ultra: 62,7 (4 colpi)<\/li>\n<li>DeepMind Flamingo: 56,0 (4 colpi)<\/li>\n<\/ul>\n<\/li>\n<li><strong>Test di percezione MCQA (Video Question Answering):<\/strong>\n<ul>\n<li>Gemini Ultra: 54,7% (0 colpi)<\/li>\n<li>SeViLA: 46,3% (0 colpi)<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><strong>Elaborazione audio:<\/strong><\/p>\n<ul>\n<li><strong>CoVoST 2 (traduzione vocale automatica, 21 lingue, punteggio BLEU):<\/strong>\n<ul>\n<li>Gemini Pro: 40,1<\/li>\n<li>Whisper v2: 29.1<\/li>\n<\/ul>\n<\/li>\n<li><strong>FLEURS (Automatic Speech Recognition, 62 Languages, Word Error Rate):<\/strong>\n<ul>\n<li>Gemini Pro: 7,6% (pi\u00f9 basso \u00e8 meglio)<\/li>\n<li>Sussurro v3: 17.6%<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2>L'impegno etico di Google<\/h2>\n<p class=\"whitespace-pre-wrap\">In un <a href=\"https:\/\/blog.google\/technology\/ai\/google-gemini-ai\/#scalable-efficient\">post sul blog<\/a>Google ha sottolineato il suo impegno verso pratiche di IA responsabili ed etiche.<\/p>\n<p class=\"whitespace-pre-wrap\">Secondo Google, Gemini \u00e8 stato sottoposto a test pi\u00f9 rigorosi rispetto a qualsiasi altra IA di Google, valutando fattori quali la parzialit\u00e0, la tossicit\u00e0, le minacce alla sicurezza informatica e il potenziale di abuso. Le tecniche di contraddittorio hanno contribuito a far emergere tempestivamente i problemi. Esperti esterni hanno poi sottoposto i modelli a stress-test e \"red-team\" per identificare ulteriori punti deboli.<\/p>\n<p class=\"whitespace-pre-wrap\">Google afferma che la responsabilit\u00e0 e la sicurezza rimarranno prioritarie in un contesto di rapidi progressi dell'IA. L'azienda ha contribuito a lanciare gruppi di settore per stabilire le migliori pratiche, tra cui MLCommons e il Secure AI Framework (SAIF).<\/p>\n<p class=\"whitespace-pre-wrap\">Google si impegna a continuare a collaborare con ricercatori, governi e organizzazioni della societ\u00e0 civile a livello globale.<\/p>\n<h2>Uscita Gemini Ultra<\/h2>\n<p class=\"whitespace-pre-wrap\">Per ora, Google limita l'accesso alla sua iterazione pi\u00f9 potente, Gemini Ultra, in arrivo all'inizio del prossimo anno.<\/p>\n<p class=\"whitespace-pre-wrap\">Prima di ci\u00f2, sviluppatori ed esperti selezionati sperimenteranno Ultra per fornire un feedback. Il lancio coincider\u00e0 con una nuova piattaforma di modelli AI all'avanguardia, o come Google chiama un'\"esperienza\", denominata Bard Advanced.<\/p>\n<h2>Gemini per gli sviluppatori<\/h2>\n<p>A partire dal 13 dicembre, gli sviluppatori e i clienti aziendali potranno accedere a Gemini Pro attraverso l'API Gemini, disponibile in Google AI Studio o Google Cloud Vertex AI.<\/p>\n<p><strong>Google AI Studio:<\/strong> Google AI Studio \u00e8 uno strumento facile da usare e basato sul web, progettato per aiutare gli sviluppatori a prototipare e lanciare applicazioni utilizzando una chiave API. Questa risorsa gratuita \u00e8 ideale per chi si trova nelle fasi iniziali dello sviluppo di un'applicazione.<\/p>\n<p><strong>Vertex AI:<\/strong> Piattaforma AI pi\u00f9 completa, Vertex AI offre servizi completamente gestiti. Si integra perfettamente con Google Cloud, offrendo anche sicurezza aziendale, privacy e conformit\u00e0 alle normative sulla governance dei dati.<\/p>\n<p>Oltre a queste piattaforme, gli sviluppatori Android potranno accedere a Gemini Nano per le attivit\u00e0 sul dispositivo. Sar\u00e0 disponibile per l'integrazione tramite AICore. Questa nuova funzionalit\u00e0 di sistema debutter\u00e0 in Android 14, a partire dai dispositivi Pixel 8 Pro.<\/p>\n<h2>Google detiene gli assi, per ora<\/h2>\n<p>OpenAI e Google si distinguono per un aspetto importante: Google sviluppa internamente una serie di altri strumenti e prodotti, compresi quelli utilizzati da miliardi di persone ogni giorno.<\/p>\n<p>Stiamo ovviamente parlando di Android, Chrome, Gmail, Google Workplace e Google Search.<\/p>\n<p>OpenAI, grazie all'alleanza con Microsoft, ha opportunit\u00e0 simili attraverso Copilot, che per\u00f2 deve ancora decollare.<\/p>\n<p>E se vogliamo essere onesti, probabilmente Google detiene il controllo di queste categorie di prodotti.<\/p>\n<p>Google ha proseguito nella corsa all'intelligenza artificiale, ma si pu\u00f2 essere certi che questo non far\u00e0 altro che alimentare la spinta di OpenAI verso il GPT-5 e l'AGI.<\/p>","protected":false},"excerpt":{"rendered":"<p>Google ha lanciato la sua famiglia di modelli di intelligenza artificiale multimodale Gemini, un'iniziativa drammatica in un settore ancora scosso dagli eventi di OpenAI. Gemini \u00e8 una famiglia di modelli multimodali in grado di elaborare e comprendere una miscela di testo, immagini, audio e video. Sundar Pichai, CEO di Google, e Demis Hassabis, CEO di Google DeepMind, esprimono grandi aspettative per Gemini. Google prevede di integrarlo in tutti i suoi prodotti e servizi, tra cui la ricerca, Maps e Chrome. Siamo entusiasti di annunciare \ud835\uddda\ud835\uddf2\ud835\uddfa\ud835\uddf6\ud835\uddfb\ud835\uddf6: Il modello di intelligenza artificiale pi\u00f9 grande e pi\u00f9 capace di @Google. Costruito per essere nativamente multimodale, \u00e8 in grado di comprendere e operare attraverso testo, codice e audio,<\/p>","protected":false},"author":2,"featured_media":2402,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[84],"tags":[125,147,383,102],"class_list":["post-8052","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-industry","tag-bard","tag-deepmind","tag-gemini","tag-google"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI<\/title>\n<meta name=\"description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"Just a few days after reports suggested Google&#039;s secretive Gemini project was delayed, they&#039;ve unleashed it upon an AI industry still reeling from events at OpenAI.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-06T17:03:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:40:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"},\"wordCount\":1356,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"keywords\":[\"Bard\",\"DeepMind\",\"Gemini\",\"Google\"],\"articleSection\":{\"1\":\"Industry\"},\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\",\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"datePublished\":\"2023-12-06T17:03:36+00:00\",\"dateModified\":\"2024-03-28T00:40:52+00:00\",\"description\":\"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_552493561.jpg\",\"width\":1000,\"height\":667,\"caption\":\"Google Med-PaLM 2\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/12\\\/google-launches-its-new-gemini-multi-modal-family-of-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Google unleashes its groundbreaking Gemini family of multi-modal models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Google lancia la sua innovativa famiglia di modelli multimodali Gemini | DailyAI","description":"Pochi giorni dopo le notizie che suggerivano un ritardo del progetto segreto Gemini, Google lo ha lanciato su un settore dell'IA ancora scosso dagli eventi di OpenAI.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_locale":"it_IT","og_type":"article","og_title":"Google unleashes its groundbreaking Gemini family of multi-modal models | DailyAI","og_description":"Just a few days after reports suggested Google's secretive Gemini project was delayed, they've unleashed it upon an AI industry still reeling from events at OpenAI.","og_url":"https:\/\/dailyai.com\/it\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","og_site_name":"DailyAI","article_published_time":"2023-12-06T17:03:36+00:00","article_modified_time":"2024-03-28T00:40:52+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"6 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Google unleashes its groundbreaking Gemini family of multi-modal models","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"},"wordCount":1356,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","keywords":["Bard","DeepMind","Gemini","Google"],"articleSection":{"1":"Industry"},"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","url":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/","name":"Google lancia la sua innovativa famiglia di modelli multimodali Gemini | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","datePublished":"2023-12-06T17:03:36+00:00","dateModified":"2024-03-28T00:40:52+00:00","description":"Pochi giorni dopo le notizie che suggerivano un ritardo del progetto segreto Gemini, Google lo ha lanciato su un settore dell'IA ancora scosso dagli eventi di OpenAI.","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_552493561.jpg","width":1000,"height":667,"caption":"Google Med-PaLM 2"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/12\/google-launches-its-new-gemini-multi-modal-family-of-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Google unleashes its groundbreaking Gemini family of multi-modal models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/8052","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=8052"}],"version-history":[{"count":16,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/8052\/revisions"}],"predecessor-version":[{"id":8084,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/8052\/revisions\/8084"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/2402"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=8052"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=8052"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=8052"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}