Open source-startupen Mistral AI säkrar $415M i finansiering

11 december 2023

Mistral AI är ett franskt AI-startup som skapar rubriker med sina lättviktiga modeller med öppen källkod. Tillsammans med uppmärksamheten kom en ny finansieringssatsning när den säkrade investeringar på 385 miljoner euro, eller $414 miljoner, den här veckan.

Bolagets andra finansieringsrunda leddes av riskkapitalbolagen Andreessen Horowitz och Lightspeed Venture Partners.

Diskussionen om modeller med öppen källkod kontra proprietära modeller pågår ständigt och Mistral AI står fast på den öppna källkodssidan.

Företag som OpenAI har varit kritiserade för sin skrämselpropaganda om säkerheten i modeller med öppen källkod, och många menar att det handlar om att Big Tech försöker behålla sin hegemoni.

Mistral AI säger att genom att träna sina egna modeller "släppa dem öppet och främja bidrag från samhället kan vi bygga ett trovärdigt alternativ till det framväxande AI-oligopolet. Generativa modeller med öppen vikt kommer att spela en central roll i den kommande AI-revolutionen."

Flera stora investerare bekräftade sitt förtroende för denna strategi. Den finansiering Mistral AI säkrade i veckan har företaget värderat till $2 miljarder. Det är en 7-faldig ökning av värderingen under de sex månader som gått sedan företaget lanserades.

Mixtral 8x7B

I september släpptes Mistral 7B, Mistral AI:s lilla men kraftfulla LLM som slog eller matchade större modeller med öppen källkod som Meta's Llama 2 34B.

OpenAI:s egenutvecklade GPT-modeller anses med rätta vara guldstandarden när man jämför modellprestanda. Med Mistral AI:s nya modell, Mixtral 8x7Bhar företaget säkrat betydande rättigheter i detta avseende.

Mixtral 8x7B är en gles Blandning-av-experter modell med ett 32k kontextfönster. Här är hur den presterade i benchmarktester jämfört med Llama 2 och GPT-3.5.

Testresultat för Mixtral 8x7B jämfört med Llama2 och GPT-3.5 Källa: Mistral AI Mistral AI

Benchmarktesterna är ett bra sätt att få en uppfattning om hur bra en modell är på att utföra olika funktioner. Testerna ovan var:

  • MMLU (MCQ i 57 ämnen): Står för flervalsfrågor i 57 ämnen.
  • HellaSwag (10-skott): Utvärderar AI:ns förmåga att förutse slutet på ett scenario efter att ha fått 10 exempel.
  • ARC-utmaning (25 skott): Testar AI:ns förståelse för vetenskapliga begrepp och resonemang efter att ha fått 25 exempel att lära sig av innan den testas.
  • WinoGrande (5 skott): Testar resonemang med sunt förnuft baserat på att lösa tvetydigheter i meningar, med 5 exempel som AI:n kan lära sig av.
  • MBPP (godkänd@1): Testar en AI-modells förmåga att generera korrekta Python-kodsnuttar. Måttet pass@1 mäter procentandelen problem där modellens första avslutning var korrekt.
  • GSM-8K (5 bilder): Benchmarket Grade School Math 8K testar en AI:s förmåga att lösa matematiska ordproblem på den nivå som förväntas i grundskolan efter att ha fått 5 exempel.
  • MT Bench (för instruktionsmodeller): Machine Translation Benchmark for Instruct Models mäter hur väl en AI kan följa instruktioner i samband med översättningsuppgifter.

Det som är ännu mer imponerande än resultaten från benchmarktesterna är hur liten och effektiv Mixtral 8x7B är. Du kan köra den här modellen lokalt på en hyfsad bärbar dator med cirka 32 GB RAM.

Med mycket mer pengar till sitt förfogande kan vi förvänta oss en del spännande utveckling från Mistral AI.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar