En ny studie anslår at energiforbruket i AI-industrien kan komme til å tilsvare energiforbruket i Nederland innen 2027.
Men hvis veksten av AI bremser opp, kan miljøpåvirkningen bli "mindre enn fryktet", ifølge forskningen.
Alex De Vries, doktorgradsstipendiat ved VU Amsterdam School of Business and Economics, gjennomførte studien. Prognosene hans tar utgangspunkt i visse forutsetninger, som den nåværende vekstraten for kunstig intelligens og tilgjengeligheten av brikker.
Gitt at Nvidia leverer omtrent 95% av sektorens nødvendige AI-maskinvare, brukte De Vries strømforbruksdata for Nvidia-brikker som referanseverdier.
Ved å vurdere Nvidias forventede leveranser frem til 2027 anslo han AIs energiforbruk til å ligge på mellom 85-134 terawattimer (TWh) årlig. På det meste tilsvarer dette forbruket forbruket til en liten nasjon.
Mange, inkludert studiens forfatter, anser disse funnene som spekulative, men bevis fra Microsoft i år indikerte det omfattende vannforbruket knyttet til datasentrene deres. A 2019-studie fant at trening av noen nevrale nettverk kan slippe ut like mye CO2 som fem biler i løpet av hele levetiden.
Microsofts og Googles økende vannforbruk kan ha sammenheng med at de kjører ressurskrevende AI-relaterte arbeidsmengder, noe som styrker De Vries' funn.
"Når det gjelder strømforbruk, snakker vi om et land på størrelse med Nederland. Det er snakk om en halv prosent av vårt totale globale strømforbruk." sa han til BBC News.
Dette kommer i tillegg til strømforbruket i datasentre, som allerede antas å utgjøre mer enn 1% av det globale strømforbruket, ifølge Det internasjonale energibyrået (IEA).
De Vries understreker videre studiens implikasjoner ved å slå fast at kunstig intelligens kun bør brukes "der det virkelig er behov for det".
Den økende etterspørselen etter AI-sentrerte datamaskiner fører til et økende behov for energi og vann, og selv om Nvidia forsøker å redusere energiforbruket til brikkene sine, er det grenser for hvor lavt man kan gå med dagens teknologi.
Danny Quinn fra DataVita fremhevet forskjellen i energiforbruk mellom konvensjonelle og AI-serverrack, og uttalte: "Et standard rack fullt av vanlig utstyr bruker omtrent 4 kWh strøm, noe som tilsvarer et familiehus. Mens et AI-kit-rack vil bruke omtrent 20 ganger så mye, altså omtrent 8 kWh."
Vil generativ AI "kjøle seg ned" i 2024?
Økende energibehov og utfordringer knyttet til inntektsgenerering gjør at noen spår at generativ AI vil stå overfor en realitetssjekk i 2024.
Ben Wood, sjefanalytiker hos CCS Insight, understreket at selv om AI lover store samfunnsmessige og økonomiske konsekvenser, kan den "overhypede" fortellingen om generativ AI snart møte utfordringer, spesielt for mindre utviklere.
"Bare kostnadene ved å ta i bruk og opprettholde generativ AI er enorme." Wood sa til CNBC.
"Og det er helt greit for disse store selskapene å gjøre det. Men for mange organisasjoner, mange utviklere, kommer det bare til å bli for dyrt."
Wood bemerker også at Nvidias dominans over AI-maskinvareindustrien utgjør potensielle flaskehalser.
Større selskaper som Amazon, Google og Meta jobber nå med AI-spesifikke brikker for å håndtere disse enorme beregningsbehovene, noe som er fenomenalt dyrt.
For at AI virkelig skal kunne oppfylle futuristiske visjoner, må vi hente mer energi og vann fra et eller annet sted. Men hvis menneskeheten snart kan få til kjernefusjon og kvantecomputere, er det en helt annen historie...