Une nouvelle étude prévoit que la consommation d'énergie de l'industrie de l'IA pourrait être égale à celle des Pays-Bas d'ici 2027.
Toutefois, si la croissance de l'IA ralentit, son impact sur l'environnement pourrait être "moins important que ce que l'on craint", selon l'étude.
Alex De Vries, candidat au doctorat à l'école de commerce et d'économie VU Amsterdam, a mené l'enquête sur le sujet. l'étude. Ses projections reposent sur certaines conditions, telles que le taux de croissance actuel de l'IA et la disponibilité des puces.
Étant donné que Nvidia fournit environ 95% du matériel d'IA requis par le secteur, M. De Vries a utilisé les données de consommation d'énergie des puces Nvidia comme points de référence.
En évaluant les livraisons prévues par Nvidia d'ici 2027, il a estimé que la consommation d'énergie de l'IA se situait entre 85 et 134 térawattheures (TWh) par an. À son apogée, cette consommation est comparable à celle d'une petite nation.
Beaucoup, y compris l'auteur de l'étude, considèrent ces résultats comme spéculatifs, mais preuve de Microsoft ont indiqué cette année qu'ils utilisaient beaucoup d'eau dans leurs centres de données. A L'étude de 2019 révèle que que la formation de certains réseaux neuronaux pourrait rejeter l'équivalent en CO2 de cinq voitures pendant toute leur durée de vie.
L'augmentation de la consommation d'eau de Microsoft et de Google pourrait être liée à l'exécution de charges de travail à forte intensité de ressources liées à l'IA, ce qui ajoute de la crédibilité aux conclusions de M. De Vries.
"En termes de consommation d'électricité, il s'agit de la taille d'un pays comme les Pays-Bas. Il s'agit d'un demi pour cent de notre consommation totale d'électricité dans le monde". a-t-il déclaré à BBC News.
Cela s'ajoute à l'énergie consommée par les centres de données, qui représenterait déjà plus de 1% de la consommation mondiale d'électricité, d'après l'étude de l'Agence européenne pour la sécurité et la santé au travail (ESA). Agence internationale de l'énergie (AIE).
M. De Vries insiste sur les implications de l'étude en déclarant que l'IA ne devrait être utilisée que "là où elle est vraiment nécessaire".
La demande croissante d'ordinateurs centrés sur l'IA se traduit par une augmentation des besoins en énergie et en eau, et bien que Nvidia s'efforce de réduire la consommation d'énergie de ses puces, il n'y a pas de limite à la technologie actuelle.
Danny Quinn de DataVita a mis en évidence la disparité de la consommation d'énergie entre les baies de serveurs conventionnels et les baies de serveurs d'IA, en déclarant : "Une baie standard remplie de kits normaux consomme environ 4 kWh, ce qui équivaut à la consommation d'une maison familiale. Alors qu'un rack de kit d'intelligence artificielle consomme environ 20 fois plus d'énergie, soit environ 8 kWh.
L'IA générative se refroidira-t-elle en 2024 ?
L'augmentation de la demande d'énergie et les défis de monétisation amènent certains à prédire que l'IA générative sera confrontée à la réalité en 2024.
Ben Wood, analyste en chef chez CCS Insight, a souligné que si l'IA promet de profondes répercussions sociétales et économiques, l'histoire "exagérée" de l'IA générative pourrait bientôt se heurter à des difficultés, en particulier pour les petits développeurs.
"Le coût du déploiement et du maintien de l'IA générative est immense". M. Wood a déclaré à CNBC.
"Et c'est très bien que ces grandes entreprises le fassent. Mais pour de nombreuses organisations, de nombreux développeurs, cela va tout simplement devenir trop cher".
M. Wood note également que la domination de Nvidia sur l'industrie du matériel d'IA pose des goulets d'étranglement potentiels.
De grandes entreprises comme Amazon, Google et Meta travaillent actuellement sur des puces spécifiques à l'IA pour gérer ces immenses besoins de calcul, ce qui représente un coût phénoménal.
Pour que l'IA réponde vraiment aux visions futuristes, nous devons tirer plus d'énergie et d'eau de quelque part. Toutefois, si l'humanité parvient bientôt à mettre au point la fusion nucléaire et l'informatique quantique, ce sera une autre histoire...