Een nieuwe studie voorspelt dat het energieverbruik van de AI-industrie in 2027 gelijk zal zijn aan dat van Nederland.
Maar als de groei van AI vertraagt, kan de impact op het milieu "minder groot zijn dan gevreesd", aldus het onderzoek.
Alex De Vries, promovendus aan de VU Amsterdam School of Business and Economics, voerde het volgende uit de studie. Zijn projecties gaan uit van bepaalde voorwaarden, zoals de huidige AI-groei en de beschikbaarheid van chips.
Aangezien Nvidia ongeveer 95% van de benodigde AI-hardware voor de sector levert, gebruikte De Vries gegevens over het energieverbruik van Nvidia-chips als benchmarks.
Op basis van de verwachte leveringen van Nvidia tegen 2027 schatte hij het energieverbruik van AI op 85-134 terawattuur (TWh) per jaar. Op het hoogtepunt is dit verbruik vergelijkbaar met dat van een kleine natie.
Velen, waaronder de auteur van het onderzoek, beschouwen deze bevindingen als speculatief, maar bewijs van Microsoft dit jaar het uitgebreide waterverbruik in verband met hun datacenters aangaven. A Onderzoek uit 2019 dat bij het trainen van sommige neurale netwerken evenveel CO2 vrijkomt als bij vijf auto's gedurende hun hele levensduur.
Het toenemende waterverbruik van Microsoft en Google kan correleren met het draaien van resource-intensieve AI-gerelateerde workloads, wat de bevindingen van De Vries geloofwaardiger maakt.
"Qua elektriciteitsverbruik heb je het dan over de grootte van een land als Nederland. Dan heb je het over een half procent van ons totale wereldwijde elektriciteitsverbruik," aldus de directeur. vertelde hij aan BBC News.
Dit komt bovenop het stroomverbruik van datacenters, dat nu al wordt geschat op meer dan 1% van het wereldwijde stroomverbruik, volgens de Internationaal Energieagentschap (IEA).
De Vries benadrukt verder de implicaties van het onderzoek door te stellen dat AI alleen moet worden gebruikt "waar het echt nodig is".
De stijgende vraag naar AI-gerichte computers vertaalt zich in een toenemende behoefte aan energie en water, en hoewel Nvidia het energieverbruik van zijn chips probeert te verminderen, kun je met de huidige technologie maar tot een bepaald niveau gaan.
Danny Quinn van DataVita benadrukte het verschil in energieverbruik tussen conventionele en AI-serverracks door te stellen: "Een standaard rack vol met normale kit is ongeveer 4kWh aan stroom, wat gelijk staat aan een gezinswoning. Terwijl een AI-kit rack ongeveer 20 keer zoveel verbruikt, dus ongeveer 8kWh."
Zal generatieve AI 'afkoelen' in 2024?
Door de toenemende vraag naar energie en de uitdagingen om geld te verdienen, voorspellen sommigen dat generatieve AI in 2024 een realiteitscheck zal moeten ondergaan.
Ben Wood, hoofdanalist bij CCS Insight, benadrukte dat AI weliswaar grote maatschappelijke en economische gevolgen belooft, maar dat het "overhypte" verhaal rond generatieve AI binnenkort voor uitdagingen kan komen te staan, vooral voor kleinere ontwikkelaars.
"Alleen al de kosten om generatieve AI in te zetten en te onderhouden zijn immens," aldus de Amerikaanse president. Wood vertelde CNBC.
"En het is allemaal goed en wel voor deze grote bedrijven om het te doen. Maar voor veel organisaties, veel ontwikkelaars, wordt het gewoon te duur."
Wood merkt ook op dat de dominantie van Nvidia in de AI-hardware-industrie mogelijke knelpunten oplevert.
Grotere bedrijven zoals Amazon, Google en Meta werken nu aan AI-specifieke chips om deze immense rekenbehoeften te beheren, wat fenomenaal duur is.
Als AI echt futuristische visioenen wil waarmaken, moeten we ergens meer energie en water vandaan halen. Maar als de mensheid kernfusie en kwantumcomputing snel kan kraken, is dat een ander verhaal...