Google presenterte NeuralGCM, en hybridmodell for værvarsling som kombinerer maskinlæring med tradisjonelle varslingsteknikker, og som har overraskende fordeler.
Værvarsling har hatt en dramatisk forbedring i prognosenøyaktigheten, men tradisjonelle teknikker krever enorme dataressurser for å kjøre stadig mer komplekse algoritmer.
Generelle sirkulasjonsmodeller (GCM-er) danner grunnlaget for klima- og værprognosene som forteller deg om du trenger en paraply i morgen.
GCM-er er fysikkbaserte simulatorer som bruker matematiske ligninger basert på fysikkens lover til å simulere hvordan luft, vann og energi beveger seg rundt på planeten.
Typiske GCM-er deler jordoverflaten inn i et rutenett av celler på opptil 100 kilometer, som et gigantisk sjakkbrett. Algoritmen behandler hver rute trinnvis for å forutsi hvordan de atmosfæriske forholdene sannsynligvis vil endre seg.
Ligningene bak GCM-er er utrolig komplekse og holder noen av verdens største superdatamaskiner opptatt.
Maskinlæringsmodeller (ML) for værvarsling har vist seg å ha et betydelig potensial, men de er først og fremst datadrevne.
En ML-værvarslingsmodell har en god idé om historiske værdata, men mangler den iboende forståelsen av de fysiske lovene som styrer atmosfæren, som er modellert i en GCM.
ML-modeller er raske og kan gi nøyaktige korttidsprognoser, men de sliter ofte med langsiktig stabilitet og sjeldne ekstreme værhendelser eller fremtidige klimascenarioer.
NeuralGCM er utviklet av et team ved Google Research og kombinerer nøyaktigheten og de langsiktige prediksjonsegenskapene til tradisjonelle GCM-er med den forbedrede oppløsningen, effektiviteten og hastigheten til ML-modeller.
NeuralGCM er fritt tilgjengelig, og vi er spente på å se hvordan forskere bygger videre på det.
For mer informasjon, se blogginnlegget mitt som beskriver arbeidet, og den åpne kildekoden vår:https://t.co/AfqLagoYDshttps://t.co/MSlFg6pgfj
- Stephan Hoyer (@shoyer) 22. juli 2024
I artikkelen står det at NeuralGCMs nøyaktighet er sammenlignbar med eller bedre enn dagens toppmoderne GCM-modeller. Det står at NeuralGCM er "den første maskinlæringsbaserte modellen som lager nøyaktige ensembleværprognoser, med bedre CRPS enn de nyeste fysikkbaserte modellene".
CRPS er en poengsum som sammenligner det forventede været med det faktiske været.
Forskerne hevder at "NeuralGCM er konkurransedyktig med maskinlæringsmodeller for én til ti dagers prognoser, og med European Centre for Medium-Range Weather Forecasts ensembleprognoser for én til femten dagers prognoser."
NeuralGCM oppnår sammenlignbare prediksjonsresultater som GCM-er, men den er langt mindre beregningsintensiv og mye mindre kompleks.
Avisen sier ikke hvor stor NeuralGCM er, men tilbyr Googles ML-værvarslingsmodell GraphCast som en sammenligning.
GraphCast består av rundt 5417 linjer, mens National Oceanic and Atmospheric Administration's (NOAA) FV3-atmosfæremodell har ca. 376 578 kodelinjer.
Forskerne sier at NeuralGCM muliggjør "3 til 5 størrelsesordeners besparelser i beregningsressurser".
For å sette dette i sammenheng, forklarer artikkelen at "NeuralGCM-1.4° simulerer 70 000 simuleringsdager på 24 timer ved hjelp av en enkelt tensor-prosesseringsenhet, mot 19 simulerte dager på 13 824 sentrale prosessorenheter med X-SHiELD", som er en høyoppløselig værvarslingsmodell.
Forskerne sier at resultatene viser at modellen deres har imponerende klimamodelleringsevner. I artikkelen bemerker de at "NeuralGCM-modeller som er trent på 72-timers prognoser, er i stand til realistisk flerårig simulering."
Ved å kombinere maskinlæring med tradisjonelle fysikkmodeller, slik Google gjorde med værvarsling, "har vi potensial til å transformere simulering for et bredt spekter av bruksområder, som materialoppdagelse, proteinfolding og flerfysisk ingeniørdesign."
Ressurskrevende kunstig intelligens har ført til at datasentre har fått mye kritikk for sine karbonutslipp og potensielle klimapåvirkning.
NeuralGCM er et godt eksempel på hvordan kunstig intelligens kan ha en positiv innvirkning på miljøet ved å erstatte, eller supplere, ineffektive tradisjonelle prosesser for å redusere forbruket av datakraft.