Google presenterade NeuralGCM, en hybridmodell för väderprognoser som kombinerar maskininlärning med traditionell prognosmetodik och som har överraskande fördelar.
Väderprognoserna har förbättrats dramatiskt när det gäller prognosprecision, men traditionella tekniker kräver stora datorresurser för att köra alltmer komplexa algoritmer.
General circulation models (GCM) ligger till grund för de klimat- och väderprognoser som gör att du vet om du behöver ett paraply i morgon.
GCM:er är fysikbaserade simulatorer som använder matematiska ekvationer baserade på fysikens lagar för att simulera hur luft, vatten och energi rör sig runt planeten.
Typiska GCM:er delar in jordens yta i ett rutnät av celler på upp till 100 kilometer, som ett gigantiskt schackbräde. Algoritmen bearbetar varje ruta stegvis för att förutsäga hur de atmosfäriska förhållandena sannolikt kommer att förändras.
Ekvationerna bakom GCM är oerhört komplexa och sysselsätter några av världens största superdatorer.
Modeller för maskininlärning (ML) för väderprognoser har visat sig ha en betydande potential, men de är främst datadrivna.
En ML-väderprognosmodell har en bra uppfattning om historiska väderdata men saknar den inneboende förståelsen för de fysiska lagar som styr atmosfären och som modelleras i en GCM.
ML-modeller är snabba och kan ge korrekta kortsiktiga prognoser, men de har ofta problem med långsiktig stabilitet och sällsynta extrema väderhändelser eller framtida klimatscenarier.
NeuralGCM, som utvecklats av ett team på Google Research, kombinerar precisionen och de långsiktiga prognosmöjligheterna hos traditionella GCM:er med den förbättrade upplösningen, effektiviteten och hastigheten hos ML-modeller.
NeuralGCM är fritt tillgängligt och vi ser fram emot att se hur forskare bygger vidare på det.
Mer information finns i mitt blogginlägg som beskriver arbetet och i vår öppna källkod:https://t.co/AfqLagoYDshttps://t.co/MSlFg6pgfj
- Stephan Hoyer (@shoyer) 22 juli 2024
I rapporten sägs att NeuralGCM:s noggrannhet är jämförbar med eller bättre än de nuvarande toppmoderna GCM-modellerna. Det står att NeuralGCM är "den första maskininlärningsbaserade modellen för att göra exakta ensembleväderprognoser, med bättre CRPS än toppmoderna fysikbaserade modeller.
CRPS är ett mått som jämför det väder som förutspås med det väder som faktiskt inträffar.
Forskarna hävdar att "NeuralGCM är konkurrenskraftig med maskininlärningsmodeller för en- till tiodagarsprognoser och med ensembleprognosen från European Centre for Medium-Range Weather Forecasts för en- till femtondagarsprognoser."
Även om NeuralGCM uppnår jämförbara prediktionsresultat som GCM, är det storleksordningar mindre beräkningsintensivt och mycket mindre komplext.
Tidningen säger inte hur stor NeuralGCM är men erbjuder Googles ML-väderprognosmodell GraphCast som en jämförelse.
GraphCast består av cirka 5.417 rader medan National Oceanic and Atmospheric Administration's (NOAA) FV3 atmosfärsmodell har cirka 376.578 rader kod.
Forskarna menar att NeuralGCM möjliggör "3 till 5 storleksordningar av besparingar i beräkningsresurser".
För att sätta detta i ett sammanhang förklarar tidningen att "NeuralGCM-1.4° simulerar 70.000 simuleringsdagar på 24 timmar med en enda tensorbehandlingsenhet jämfört med 19 simulerade dagar på 13.824 centrala behandlingsenhetskärnor med X-SHiELD", som är en högupplöst väderprognosmodell.
Forskarna säger att deras resultat visar att deras modell har imponerande klimatmodelleringsfunktioner. Papperet konstaterar att "NeuralGCM-modeller som tränats på 72-timmars prognoser kan realistiska flerårssimuleringar."
Att kombinera maskininlärning med traditionella fysikaliska modeller, som Google gjorde med väderprognoser, "har potential att förändra simuleringar för ett brett spektrum av tillämpningar, t.ex. materialupptäckt, proteinveckning och teknisk design med flera fysiker".
Resurskrävande AI har lett till att datacenter har fått ta emot en hel del kritik för sina koldioxidutsläpp och sin potentiella klimatpåverkan.
NeuralGCM är ett bra exempel på hur AI kan ha en positiv inverkan på miljön genom att ersätta eller komplettera ineffektiva traditionella processer för att minska förbrukningen av datorkraft.