Molnplattformen Snowflake och Nvidia har gått samman för att lansera en plattform som gör det möjligt för Snowflake-användare att skapa skräddarsydda AI-applikationer med sina data.
Partnerskapet tillkännagavs vid Snowflake Summit 2023, där Nvidias VD Jensen Huang fick en snowboard i present av Snowflakes VD Frank Slootman.
Samarbetet innebär att Nvidias NeMo plattform för stora språkmodeller (LLM) integreras i Snowflake Data Cloud. Detta kommer att göra det möjligt för företag att använda data som lagras i Snowflake-konton för att utveckla LLM.
Så här fungerar det:
- Många företag använder redan Snowflake för att lagra interna data.
- Företag använder Nvidias NeMo-ramverk för att bygga AI med sina data.
- De utbildar och driftsätter dessa applikationer med Nvidias GPU:er.
Microsoft Azure erbjöd en liknande produkt tidigare i år, vilket visar att stora teknikföretag vill erbjuda företag fler alternativ för att använda sina egna data för att bygga AI-modeller.
Nvidias NeMo, en molnbaserad företagsplattform, gör det möjligt för användare att bygga, anpassa och distribuera generativa AI-modeller med miljarder parametrar. Planen är att Snowflake ska vara värd för och köra NeMo inom Snowflake Data Cloud, vilket banar väg för kunder att utveckla och rulla ut anpassade LLM:er för generativa AI-applikationer.
Manuvir Das, Nvidias chef för enterprise computing, diskuterade hur detta gör det möjligt för Snowflake-kunder att dra nytta av Nvidias banbrytande AI-infrastruktur.
"De kan arbeta med sina egna data för att bygga... avancerade generativa AI-applikationer utan att flytta dem från den säkra Data Cloud-miljön. Detta kommer att minska kostnaderna och fördröjningen samtidigt som datasäkerheten bibehålls", säger han.
Huang lyfte fram datans roll i att skapa generativa AI-applikationer som fungerar med företagsdata: "Tillsammans kommer Nvidia och Snowflake att skapa en AI-fabrik som hjälper företag att omvandla sina värdefulla data till anpassade generativa AI-modeller för att driva banbrytande nya applikationer - direkt från molnplattformen som de använder för att driva sina företag."
Den här lösningen gör att företag kan använda data som redan finns lagrade i Snowflake - de behöver inte flytta dem från någon annanstans. Det är inte bara mycket snabbare än att bygga pipelines för AI-utveckling från grunden, utan det är också säkrare.
Företagen vill utnyttja sina data för AI
Företag vill dra full nytta av AI, men de saknar ofta tekniken för att göra det - även om de besitter expertis inom datavetenskap och teknik.
Vissa företag är vända sig till modeller med öppen källkod Nvidias lösning är dock skalbar till Big Data-applikationer som omfattar terabyte eller till och med petabyte av data.
Das menar att företag som använder anpassade generativa AI-modeller som tränas på deras egna data kommer att ligga steget före de som använder leverantörsspecifika modeller. Det är det bästa av två världar, där egenutvecklad data kombineras med Nvidias banbrytande AI-verktyg inom Snowflake-ekosystemet.
"Mer än 8 000 Snowflake-kunder lagrar exabytes av data i Snowflake Data Cloud. När företag vill lägga till generativa AI-funktioner i sina applikationer och tjänster är dessa data bränsle för att skapa anpassade generativa AI-modeller", förklarar Das.
Nvidia tillhandahåller accelererad databehandling och AI-mjukvara som en del av detta partnerskap. De två företagen samutvecklar för närvarande Nvidias AI-motor med Snowflakes Data Cloud.
"Generativ AI är en möjlighet som omsätter flera biljoner dollar och har potential att förändra alla branscher när företag börjar bygga och distribuera anpassade modeller med hjälp av sina värdefulla data", säger Das.
Nvidias enorma värdeökning i år har drivit fram ett stort antal nya mjuk- och hårdvaruprojekt.
Till exempel sätter deras nya H100 GPU:er nya riktmärken för AI-utbildningsprestanda, vilket möjliggör nya generationer av större och bättre modeller.