Statistikken for AI-energiforbruk og karbonutslipp kan være overdrevet

6. februar 2024

I en ny rapport fra Information Technology and Innovation Foundation (ITIF) heter det at fremstillingen av AIs energiforbruk som ute av kontroll er overdrevet og ofte misvisende.

ITIF, en ideell tenketank, lanserte rapporten "Rethinking Concerns About AI's Energy Use" og presenterte en realitetssjekk av alarmistiske uttalelser om AI-energi og karbonutslipp.

Rapporten bemerket at dramatiske overskrifter om energiforbruket til ny teknologi ikke er noe nytt fenomen. Da dotcom-æraen nådde sitt høydepunkt på 1990-tallet, het det i en Forbes-artikkel: "Et eller annet sted i USA brennes det en klump kull hver gang en bok bestilles på nettet."

Rapporten, som ble mye sitert, hevdet videre at "halvparten av strømnettet vil drive den digitale Internett-økonomien i løpet av det neste tiåret".

Vi vet nå at disse estimatene var kraftig overdrevet. Det internasjonale energibyrået (IEA) anslår at datasentrene og overføringsnettverkene som driver internett, bruker mellom 1-1,5% av det globale strømforbruket.

Vi har tidligere rapportert om enorme vann- og energiressurser som går med til å trene opp AI-modeller og under inferens, men ITIF-rapporten bidrar til å bringe litt fornuft inn i vår første panikkreaksjon.

Fakta vs. fiksjon

Det er en utfordring å finne nøyaktige tall for utslipp og energiforbruk knyttet til kunstig intelligens. I tillegg til prosessorkraften til CPU-en, kommer energiressursene som går med til produksjon av brikker, kjøling, varierende arbeidsbelastning osv.

Dette gjør det vanskelig å få et nøyaktig tall, og lett å presentere et troverdig alarmistisk tall.

I 2019 anslo forskere ved University of Massachusetts Amherst at opplæringen av Googles BERT-modell ville ha sluppet ut 1438 pund karbondioksid (CO2) i løpet av 79 timers opplæring. Det tilsvarer rundt 75% av CO2-utslippene fra en tur-retur-flytur fra New York til San Francisco.

De anslo også at hvis en modell som BERT hypotetisk sett ble trent opp for nevrale arkitektursøk (NAS), et av de mest beregningsmessig komplekse problemene innen maskinlæring, ville den slippe ut 626 155 pund CO2-utslipp.

Det tilsvarer rundt 300 tur-retur-flyvninger fra øst- til vestkysten av USA. Gjett hvilket utslippstall som skapte overskriftene.

Til alt overmål viste det seg at forskernes estimat i det verste NAS-scenarioet var overestimert med en faktor på 88. Ikke overraskende kom ikke korrigeringen av rapporten i nyhetene.

Det blir bedre, ikke verre

Ja, opplæring av AI-modeller, og først og fremst inferens, bruker mye energi. Rapporten peker imidlertid på at effektivisering av AI-modeller og maskinvare vil redusere energiforbruket over tid.

Her er en kortversjon av begrunnelsen i rapporten:

  • Etter hvert som den inkrementelle forbedringstakten i AI-modeller avtar, vil utviklerne fokusere på å gjøre modellene mer effektive for å gjøre dem økonomisk levedyktige.
  • AI-brikker blir stadig mer effektive. Mellom 2010 og 2018 økte antall databehandlingsinstanser med 550 prosent og lagringskapasiteten i globale datasentre med 2400 prosent, mens energiforbruket i globale datasentre bare økte med 6 prosent.
  • Substitusjonseffektene av AI bør vurderes. Det er mer miljøvennlig å laste ned en bok enn å trykke og levere den. På samme måte kan kunstig intelligens eliminere oppgaver som gir høyere karbonutslipp. Mennesker slipper ut mye mer karbon når de skriver en side med tekst enn når en kunstig intelligens genererer den.
  • AIs evne til å effektivisere forsyningssystemer, behandle komplekse data om klimaendringer, muliggjøre presisjonsjordbruk og optimalisere logistikken reduserer karbonutslippene.

Selv om rapporten sier at AI-energibruken er mindre alarmerende enn det som har blitt rapportert, etterlyser den standarder for energitransparens for AI-modeller for å gjøre benchmarking enklere.

ITIF konkluderte også med at overdreven regulering av AI-modeller kan gjøre dem mindre energieffektive, ettersom debiasing-teknikker for LLM-er øker energikostnadene.

Rapporten er verdt å lese i sin helhet. Den har flere gode eksempler som belyser hvordan de i motsetning til å akselerere AI utvikling bruker villedende data om energibruk for å argumentere for sin sak.

Avslutningsvis refereres det til en spaltist i The Guardian som gjentok den diskrediterte BERT-studien fra 2019 i desember 2023, to år etter at den hadde vist seg å være falsk og villedende. Problemet kommer ikke til å forsvinne.

Ikke tro på alt teknofobene påstår. Togreiser kommer ikke til å ødelegge menneskekroppen, internett forbruker ikke mesteparten av strømmen vår, og kunstig intelligens kommer sannsynligvis ikke til å ødelegge miljøet.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser