AI-statistik over energiforbrug og CO2-udledning er måske overdrevet

6. februar 2024

En ny rapport fra Information Technology and Innovation Foundation (ITIF) siger, at fortællingen om, at AI's energiforbrug er ude af kontrol, er overdrevet og ofte misvisende.

ITIF, en nonprofit-tænketank, udgav sin rapport med titlen "Rethinking Concerns About AI's Energy Use" og præsenterede et realitetstjek for alarmistiske udsagn om AI-energi og kulstofemission.

Rapporten bemærkede, at dramatiske overskrifter om nye teknologiers energiforbrug ikke er et nyt fænomen. Da dotcom-æraen nåede sit højdepunkt i 1990'erne, stod der i en Forbes-artikel: "Et eller andet sted i Amerika bliver der brændt en klump kul af, hver gang en bog bestilles online."

Rapporten, som blev citeret vidt og bredt, fortsatte med at hævde, at "halvdelen af elnettet vil drive den digitale internetøkonomi inden for det næste årti."

Vi ved nu, at de estimater var vildt overdrevne. Det Internationale Energiagentur (IEA) anslår, at datacentrene og transmissionsnetværkene, der driver internettet, bruger mellem 1-1,5% af det globale elforbrug.

Vi har tidligere rapporteret om enorme vand- og energiressourcer der bruges til at træne AI-modeller og under udledning, men ITIF-rapporten hjælper med at bringe lidt fornuft ind i vores første panikagtige reaktion.

Fakta vs. fiktion

Det er en udfordring at komme med præcise tal for AI's emissioner og energiforbrug. Ud over CPU'ens processorkraft er der de energiressourcer, der tilskrives chipproduktion, køling, variable arbejdsbelastninger osv...

Det gør det svært at få et præcist tal og nemt at præsentere et troværdigt alarmistisk tal.

I 2019 vurderede forskere ved University of Massachusetts Amherst, at træning af Googles BERT-model ville have udledt 1.438 pund kuldioxid (CO2) i løbet af 79 timers træning. Det svarer til ca. 75% af CO2-udledningen fra en flyvetur tur-retur fra New York til San Francisco.

De vurderede også, at hvis en model som BERT hypotetisk set blev trænet til neural arkitektursøgning (NAS), et af de mest beregningsmæssigt komplekse problemer inden for maskinlæring, ville den udlede 626.155 pund CO2-emissioner.

Det svarer til omkring 300 returflyvninger fra USA's øst- til vestkyst. Gæt, hvilket emissionstal der skabte overskrifterne.

For at gøre tingene værre viste det sig, at forskernes skøn i det værst tænkelige NAS-scenarie var overvurderet med en faktor 88. Det er ikke overraskende, at rettelsen til rapporten ikke kom i nyhederne.

Det bliver bedre, ikke værre

Ja, træning af AI-modeller og primært inferens, bruger en masse energi. Rapporten bemærkede dog, at effektiviseringer i AI-modeller og hardware vil få energiforbruget til at falde med tiden.

Her er en kort version af begrundelserne i rapporten:

  • Efterhånden som den gradvise forbedring af AI-modellerne aftager, vil udviklerne fokusere på at gøre modellerne mere effektive for at gøre dem økonomisk levedygtige.
  • AI-chips bliver mere effektive. Mellem 2010 og 2018 var der en stigning på 550 procent i computerinstanser og en stigning på 2.400 procent i lagerkapacitet i globale datacentre, men kun en stigning på 6 procent i det globale energiforbrug i datacentre.
  • Substitutionseffekterne af AI bør overvejes. Det er mere miljøvenligt at downloade en bog end at printe og levere den. På samme måde kan AI eliminere opgaver, der udleder mere kulstof. Mennesker udleder meget mere kulstof, når de skriver en side tekst, end når de får en AI til at generere den.
  • AI's evne til at gøre forsyningssystemer mere effektive, behandle komplekse data om klimaforandringer, muliggøre præcisionslandbrug og optimere logistikken reducerer alle CO2-udledningen.

Selv om rapporten siger, at AI-energiforbruget er mindre alarmerende, end det er blevet rapporteret, opfordrer den til standarder for energigennemsigtighed for AI-modeller for at gøre benchmarking lettere.

ITIF konkluderede også, at overdreven regulering af AI-modeller kan gøre dem mindre energieffektive, da debiasing-teknikker til LLM'er øger energiomkostningerne.

Rapporten er værd at læse i sin helhed. Den har flere fremragende eksempler, der fremhæver, hvordan de i modsætning til at fremskynde AI udvikling bruger vildledende data om energiforbrug til at argumentere for deres sag.

Den sluttede med at henvise til en klummeskribent i The Guardian, som gentog den miskrediterede BERT-undersøgelse fra 2019 i december 2023, to år efter at den havde vist sig at være falsk og vildledende. Problemet forsvinder ikke.

Tro ikke på alt, hvad teknofoberne påstår. At rejse med tog vil ikke ødelægge menneskekroppen, internettet bruger ikke størstedelen af vores elektricitet, og kunstig intelligens vil sandsynligvis ikke ødelægge miljøet.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser