Entre consommation électrique et CO2, l’IA est-elle compatible avec le climat ?
Contrairement aux apparences, IA ne rime pas avec climat. Dans un rapport annuel de Google publié mardi, le géant américain pointe une explosion de son empreinte carbone, avec une augmentation de 48 % des émissions de gaz à effet de serre par rapport à 2019. En cause : l’énorme consommation énergétique liée à l’IA. « Nous voyions l’IA comme une solution miracle, mais elle génère une consommation d’eau et d’énergie à des niveaux records », pointe-t-il. 20 minutes Caroline Gans-Combe, économiste et professeur associé à l’INSEEC.
Par exemple, « le nombre moyen de requêtes sur ChatGPT en une journée équivaut à la consommation annuelle de 14 000 foyers français ». Et une seule requête sur ChatGPT consomme dix fois plus d’énergie que la même requête sur un moteur de recherche traditionnel. Et cette consommation n’est pas près de diminuer dans l’immédiat. « Le besoin de calcul pour l’IA a été multiplié par un million en six ans et il est multiplié par dix chaque année », reconnaissait en mai le PDG de Google, Sundar Pichai.
En termes de consommation comme de construction, les datacenters sont gourmands
L’objectif de décarbonation, à l’échelle du pays comme de l’entreprise, prend un coup. Par rapport à 2019, Google s’était engagé à réduire ses émissions de 50 % d’ici 2030, il est désormais sur la dynamique inverse. Même chose pour Microsoft, dont les émissions ont augmenté de 23 % en trois ans, alors que l’entreprise vise officiellement une empreinte carbone négative d’ici 2030. Quant à Amazon, l’objectif de neutralité a été repoussé à 2040. Plus indirectement, l’eau utilisée pour refroidir les data centers contribue également à perturber le cycle de l’eau à différentes échelles.
Selon l’Agence internationale de l’énergie (AIE), la consommation électrique des « data centers », ces centres qui font fonctionner l’ensemble du réseau internet dont l’IA, pourrait doubler d’ici 2026. Et l’électricité encore largement carbonée n’est pas la seule cause. Car pour répondre aux besoins en puissance de calcul, Google, Amazon et Microsoft ont prévu de construire de nouveaux « data centers ». Entre artificialisation des sols et besoins en matières premières comme les terres rares, le coût écologique de ces fermes informatiques sera élevé. Microsoft a ainsi reconnu que la construction de nouveaux sites avait fait bondir ses émissions indirectes de CO2 de 30 % en 2023.
Vers une IA sobre ?
Pour les approvisionner, il faudra également mettre en place de nouvelles structures énergétiques. Comme rappelé Le mondeIl existe ainsi certains projets de « data centers » qui consomment à eux seuls l’équivalent de la production d’une centrale nucléaire. Avons-nous seulement les moyens d’absorber le coût de ces ressources ? « Oui, si on fait un arbitrage, tranche Caroline Gans Combe. Il faut penser l’IA dans un processus économique global, mesurer ce qu’elle apporte en termes de réduction de certaines ressources, et de consommation ailleurs. »
Autrement dit, les gains d’efficacité permis par l’IA dans certains secteurs compenseraient en partie la consommation des datacenters. De plus, sur l’IA elle-même, « des modèles de sobriété émergent » pour réduire la consommation par recherche.
Plus d’informations sur l’intelligence artificielle
En revanche, « il faudra l’arrêter là où, d’un point de vue de la sobriété, cela n’apporte rien », pointe Caroline Gans Combe. Plus incisive, Sasha Luccioni, spécialiste des questions énergétiques pour la plateforme d’IA Hugging Face, a posé la question dans Le monde :« Avons-nous vraiment besoin d’une IA générative partout ? »