Un nouveau rapport de la Fondation pour les technologies de l'information et l'innovation (ITIF) indique que la description de la consommation d'énergie de l'IA comme étant hors de contrôle est exagérée et souvent trompeuse.
L'ITIF, un groupe de réflexion à but non lucratif, a publié un rapport intitulé "Rethinking Concerns About AI's Energy Use" (Repenser les inquiétudes concernant l'utilisation de l'énergie par l'IA), qui met en doute les déclarations alarmistes sur l'énergie et les émissions de carbone de l'IA.
Le rapport a noté que les gros titres dramatiques sur l'utilisation de l'énergie par les nouvelles technologies ne sont pas un phénomène nouveau. Lorsque l'ère des dot-com a atteint son apogée dans les années 1990, un article de Forbes affirmait : "Quelque part en Amérique, un morceau de charbon est brûlé chaque fois qu'un livre est commandé en ligne".
Le rapport, qui a été largement cité, poursuit en affirmant que "la moitié du réseau électrique alimentera l'économie numérique-Internet au cours de la prochaine décennie".
Nous savons aujourd'hui que ces estimations étaient largement exagérées. L'Agence internationale de l'énergie (AIE) estime que les centres de données et les réseaux de transmission qui alimentent l'internet utilisent entre 1 et 1,5% de la consommation mondiale d'électricité.
Nous avons déjà parlé de la d'immenses ressources en eau et en énergie qui sont consommés par l'entraînement des modèles d'IA et lors de l'inférence, mais le rapport de l'ITIF contribue à ramener un peu de raison dans notre réaction initiale de panique.
Faits et fiction
Il est difficile d'obtenir des chiffres précis sur les émissions et la consommation d'énergie de l'IA. Outre la puissance de traitement de l'unité centrale, il y a les ressources énergétiques attribuées à la fabrication des puces, au refroidissement, aux charges de travail variables, etc...
Il est donc difficile d'obtenir un chiffre précis et facile de présenter un chiffre alarmiste crédible.
En 2019, des chercheurs de l'université du Massachusetts Amherst ont estimé que la formation au modèle BERT de Google aurait émis 1 438 livres de dioxyde de carbone (CO2) en 79 heures de formation. Cela représente environ 75% des émissions de CO2 d'un vol aller-retour entre New York et San Francisco.
Ils ont également estimé que si, hypothétiquement, un modèle comme BERT était entraîné pour la recherche d'architecture neuronale (NAS), l'un des problèmes les plus complexes en termes de calcul dans l'apprentissage automatique, il émettrait 626 155 livres d'émissions de CO2.
Cela équivaut à environ 300 vols aller-retour de la côte est à la côte ouest des États-Unis. Devinez quel chiffre d'émissions a fait la une des journaux.
Pire encore, il s'est avéré que l'estimation des chercheurs dans le scénario le plus pessimiste de la NAS était surestimée d'un facteur de 88. Sans surprise, la correction du rapport n'a pas fait la une des journaux.
Les critiques estiment que l'adoption rapide des #AI combinée à une augmentation de la taille des modèles d'apprentissage profond conduira à une augmentation massive de l'efficacité de l'apprentissage profond. #énergie avec un impact environnemental potentiellement dévastateur. Mais est-ce vrai ? https://t.co/GHayfR4GTf
- Fondation pour les technologies de l'information et l'innovation (@ITIFdc) 4 février 2024
La situation s'améliore, elle n'empire pas
Oui, la formation de modèles d'IA, et principalement l'inférence, consomme beaucoup d'énergie. Toutefois, le rapport note que les gains d'efficacité des modèles et du matériel d'IA permettront de réduire la consommation d'énergie au fil du temps.
Voici une version abrégée des raisons invoquées dans le rapport :
- Comme le taux d'amélioration progressive des modèles d'IA ralentit, les développeurs se concentreront sur l'amélioration de l'efficacité des modèles afin de les rendre économiquement viables.
- Les puces d'IA sont de plus en plus efficaces. Entre 2010 et 2018, le nombre d'instances de calcul a augmenté de 550 % et la capacité de stockage de 2 400 % dans les centres de données mondiaux, mais la consommation d'énergie de ces derniers n'a augmenté que de 6 %.
- Les effets de substitution de l'IA doivent être pris en compte. Le téléchargement d'un livre est plus respectueux de l'environnement que son impression et sa livraison. De la même manière, l'IA peut éliminer les tâches à forte émission de carbone. Les humains émettent beaucoup plus de carbone lorsqu'ils tapent une page de texte que lorsqu'ils la font générer par une IA.
- La capacité de l'IA à rendre les systèmes de services publics plus efficaces, à traiter des données complexes sur le changement climatique, à permettre une agriculture de précision et à optimiser la logistique permet de réduire les émissions de carbone.
Bien que le rapport indique que la consommation d'énergie de l'IA est moins alarmante que ce qui a été rapporté, il appelle à des normes de transparence énergétique pour les modèles d'IA afin de faciliter l'analyse comparative.
L'ITIF a également conclu qu'une réglementation excessive des modèles d'IA pourrait les rendre moins efficaces sur le plan énergétique, car les techniques de débiaisage des LLM augmentent les coûts énergétiques.
Le rapport mérite d'être lu dans son intégralité. Il contient d'autres excellents exemples qui mettent en évidence la façon dont ces par opposition à l'accélération de l'IA utilisent des données trompeuses sur l'utilisation de l'énergie pour défendre leur cause.
Il conclut en faisant référence à un chroniqueur du Guardian qui a répété l'étude BERT 2019 discréditée en décembre 2023, deux ans après qu'il a été démontré qu'elle était fausse et trompeuse. Le problème n'est pas près de disparaître.
Ne croyez pas tout ce que prétendent les technophobes. Voyager en train ne détruira pas le corps humain, l'internet ne consomme pas la majorité de notre électricité et l'IA ne va probablement pas détruire l'environnement.