Alibabas Qwen 2.5 är den bästa open source-modellen inom matematik och kodning

23 september 2024

  • Alibaba släppte mer än 100 modeller med öppen källkod från sin nya Qwen 2.5-familj
  • Qwen 72B slår Llama 3.1 405B i benchmarks för matematik och kodning
  • Alibaba presenterade en ny text-till-video-modell som en del av sin Tongyi Wanxiang-bildgenerator

Alibaba släppte mer än 100 AI-modeller med öppen källkod, inklusive Qwen 2.5 72B som slår andra modeller med öppen källkod i matematik- och kodningsbenchmarks.

Mycket av AI-industrins uppmärksamhet i modeller med öppen källkod har varit på Metas ansträngningar med Llama 3, men Alibabas Qwen 2.5 har minskat klyftan avsevärt. Den nyligen släppta Qwen 2.5-familjen av modeller varierar i storlek från 0,5 till 72 miljarder parametrar med generaliserade basmodeller såväl som modeller fokuserade på mycket specifika uppgifter.

Alibaba säger att dessa modeller kommer med "förbättrad kunskap och starkare kapacitet inom matematik och kodning" med specialiserade modeller som fokuserar på kodning, matematik och flera modaliteter inklusive språk, ljud och syn.

Alibaba Cloud tillkännagav också en uppgradering av sin egen flaggskeppsmodell Qwen-Max, som de inte har släppt som öppen källkod. Benchmarks för Qwen 2.5 Max ser bra ut, men det är Qwen 2.5 72B-modellen som har skapat mest spänning bland fans av öppen källkod.

Qwen 2.5 72B instruerar modellens riktmärken för matematik och kodning. Källa: Alibaba Cloud Alibaba Moln

Riktmärkena visar att Qwen 2.5 72B slår Metas mycket större flaggskepp Llama 3.1 405B modeller på flera fronter, särskilt inom matematik och kodning. Klyftan mellan modeller med öppen källkod och proprietära modeller som OpenAI och Google minskar också snabbt.

Tidiga användare av Qwen 2.5 72B visar att modellen ligger strax under Sonnet 3.5 och till och med slår OpenAI's o1-modeller i kodning.

Alibaba säger att dessa nya modeller alla utbildades på sin storskaliga dataset som omfattar upp till 18 biljoner tokens. Qwen 2.5-modellerna kommer med ett kontextfönster på upp till 128k och kan generera utdata på upp till 8k tokens.

Övergången till mindre, mer kapabla och kostnadsfria modeller med öppen källkod kommer sannolikt att ha en större inverkan på många användare än mer avancerade modeller som o1. Dessa modellers kant- och enhetsfunktioner innebär att du kan få ut mycket av en gratismodell som körs på din bärbara dator.

Den mindre Qwen 2.5-modellen levererar kodning på GPT-4-nivå till en bråkdel av kostnaden, eller till och med gratis om du har en bra bärbar dator att köra den lokalt.

Förutom LLM:erna släppte Alibaba en betydande uppdatering av sin språkmodell för vision med introduktionen av Qwen2-VL. Qwen2-VL kan förstå videor som varar i över 20 minuter och stöder videobaserade frågor och svar.

Den är utformad för att integreras i mobiltelefoner, bilar och robotar för att möjliggöra automatisering av operationer som kräver visuell förståelse.

Alibaba presenterade också en ny text-till-video-modell som en del av sin bildgenerator, Tongyi Wanxiang stora modellfamilj. Tongyi Wanxiang AI Video kan producera videoinnehåll av filmkvalitet och 3D-animering med olika konstnärliga stilar baserat på textmeddelanden.

Demonstrationerna ser imponerande ut och verktyget är gratis att använda, även om du behöver ett kinesiskt mobilnummer för att anmäl dig till det här. Sora kommer att få allvarlig konkurrens när, eller om, OpenAI så småningom släpper det.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar