I en ny rapport från Information Technology and Innovation Foundation (ITIF) konstateras att bilden av att AI:s energiförbrukning är utom kontroll är överdriven och ofta missvisande.
ITIF, en ideell tankesmedja, släppte sin rapport med titeln "Rethinking Concerns About AI's Energy Use" och presenterade en verklighetskontroll av alarmistiska uttalanden om AI:s energi- och koldioxidutsläpp.
Rapporten konstaterade att dramatiska rubriker om energianvändningen i samband med ny teknik inte är något nytt fenomen. När dotcom-eran nådde sin höjdpunkt på 1990-talet stod det i en Forbes-artikel: "Någonstans i Amerika bränns en kolbit varje gång en bok beställs online."
Rapporten, som citerades flitigt, fortsatte med att hävda att "hälften av elnätet kommer att driva den digitala internetekonomin inom det närmaste decenniet".
Vi vet nu att dessa uppskattningar var kraftigt överdrivna. International Energy Agency (IEA) uppskattar att de datacenter och transmissionsnät som driver internet använder mellan 1-1,5% av den globala elanvändningen.
Vi har tidigare rapporterat om enorma vatten- och energiresurser som går åt för att träna AI-modeller och under inferens, men ITIF-rapporten bidrar till att ge lite sans till vår första panikartade reaktion.
Fakta kontra fiktion
Det är en utmaning att få fram exakta siffror för AI:s utsläpp och energianvändning. Förutom processorns processorkraft finns det energiresurser som hänförs till chiptillverkning, kylning, varierande arbetsbelastning etc...
Detta gör det svårt att få fram en korrekt siffra och lätt att presentera en trovärdig alarmistisk siffra.
År 2019 uppskattade forskare vid University of Massachusetts Amherst att träning av Googles BERT-modell skulle ha släppt ut 1 438 pund koldioxid (CO2) under 79 timmars träning. Det motsvarar cirka 75% av CO2-utsläppen från en flygresa tur och retur från New York till San Francisco.
De uppskattade också att om en modell som BERT hypotetiskt skulle tränas för neural architecture search (NAS), ett av de mest beräkningsmässigt komplexa problemen inom maskininlärning, skulle den släppa ut 626.155 pund CO2.
Det motsvarar cirka 300 flygresor tur och retur från USA:s östkust till västkust. Gissa vilken utsläppssiffra som fick rubrikerna.
Till råga på allt visade det sig att forskarnas uppskattning i det värsta NAS-scenariot överskattades med en faktor 88. Det är inte förvånande att korrigeringen av rapporten inte kom med i nyheterna.
Kritiker spekulerar i att det snabba införandet av #AI kombinerat med en ökning av storleken på modeller för djupinlärning kommer att leda till en massiv ökning av 1TP5Energi användning med potentiellt förödande miljöpåverkan. Men är det sant? https://t.co/GHayfR4GTf
- Stiftelsen för informationsteknik och innovation (@ITIFdc) 4 februari 2024
Det blir bättre, inte sämre
Ja, utbildning av AI-modeller och framför allt inferens, förbrukar mycket energi. I rapporten konstateras dock att effektiviseringar i AI-modeller och hårdvara kommer att minska energiförbrukningen över tid.
Här är en kort version av de skäl som anges i rapporten:
- I takt med att AI-modellernas förbättringstakt avtar kommer utvecklarna att fokusera på att göra modellerna mer effektiva för att göra dem ekonomiskt lönsamma.
- AI-chip blir allt mer effektiva. Mellan 2010 och 2018 ökade antalet beräkningsinstanser med 550 procent och lagringskapaciteten i globala datacenter med 2.400 procent, men energianvändningen i globala datacenter ökade bara med 6 procent.
- AI:s substitutionseffekter bör beaktas. Att ladda ner en bok är mer miljövänligt än att trycka och leverera den. På liknande sätt kan AI eliminera uppgifter som ger upphov till högre koldioxidutsläpp. Människor släpper ut mycket mer koldioxid när de skriver en textsida än när de låter en AI generera den.
- AI:s förmåga att effektivisera försörjningssystem, bearbeta komplexa data om klimatförändringar, möjliggöra precisionsjordbruk och optimera logistiken minskar koldioxidutsläppen.
Även om rapporten säger att AI:s energianvändning är mindre alarmerande än vad som rapporterats, efterlyser den standarder för energitransparens för AI-modeller för att göra benchmarking enklare.
ITIF drog också slutsatsen att överdriven reglering av AI-modeller kan göra dem mindre energieffektiva eftersom debiasing-tekniker för LLM:er ökar energikostnaderna.
Rapporten är värd att läsa i sin helhet. Den har flera utmärkta exempel som belyser hur de som i stället för att påskynda AI utveckling använder missvisande uppgifter om energianvändning för att argumentera för sin sak.
Den avslutades med att hänvisa till en kolumnist i The Guardian som upprepade den misskrediterade BERT-studien från 2019 i december 2023, två år efter att den visat sig vara falsk och vilseledande. Problemet kommer inte att försvinna.
Tro inte på allt som teknikfobikerna påstår. Att resa med tåg förstör inte människokroppen, internet förbrukar inte majoriteten av vår elektricitet och AI kommer förmodligen inte att förstöra miljön.