Intelligence artificielle : un désastre environnemental
Pouvons-nous continuer à accroître les performances de l’intelligence artificielle sans menacer notre planète ? Ces dernières semaines, les signes avant-coureurs se sont multipliés. OpenAI, le créateur de ChatGPT, a récemment prévenu la Maison Blanche que chacun de ses futurs centres de données nécessiterait probablement « plus d’énergie qu’il n’en faut pour alimenter une ville entière.
Le même mois, l’énergéticien Constellation Energy et Microsoft ont signé un accord de 20 ans pour la réouverture de la centrale nucléaire de Three Mile Island en Pennsylvanie, site du plus grave accident radiologique que les États-Unis aient jamais connu. De son côté, Google a admis avoir du mal à atteindre ses objectifs de neutralité carbone.
La tendance se généralise aux États-Unis, où sont développés la plupart des grands modèles d’IA générative. À tel point qu’un rapport de BloombergNEF prévient que les progrès du pays en matière de décarbonisation ralentissent. Les émissions ne seraient réduites que de 34 % d’ici 2030 par rapport à leurs niveaux de 2005, bien loin de l’objectif de 50 à 52 %. La cause selon ce rapport : la boulimie de l’IA en matière d’énergie.
Une démocratisation à marche forcée
« Tous les géants du Web investissent dans les infrastructures, en donnant la priorité aux performances des modèles et en négligeant les coûts énergétiques. » résume Tristan Nitot, directeur associé chez OCTO Technology, spécialiste du numérique durable. Il y a quelques semaines, Eric Schmidt, ancien patron de Google et investisseur majeur dans l’IA, avait balayé le sujet lors d’une conférence. « Nous n’atteindrons pas les objectifs quoi qu’il arrive parce que nous ne sommes pas organisés pour cela. Les besoins énergétiques de l’IA seront problématiques, mais je préfère parier sur l’IA pour résoudre la crise environnementale plutôt que de la forcer et d’avoir le problème quoi qu’il arrive. »
Mais ce pari techno-solutionniste est-il tenable compte tenu de la démocratisation rapide de l’intelligence artificielle, et donc de son coût énergétique croissant ? L’IA générative est désormais intégrée dans des produits très courants. Pensez à la nouvelle version d’iOS, dotée de « Apple Intelligence » qui résume rapidement vos notifications et messages en une phrase, ou encore à l’AI Overviews de Google qui propose aux internautes d’une centaine de pays une synthèse concoctée par l’IA des résultats. de leurs recherches… Désormais, l’utilisation de ChatGPT et autres pose question. Selon l’Agence internationale de l’énergie (AIE), une requête auprès du chatbot OpenAI consommerait près de dix fois plus d’électricité qu’une simple requête sur Google.
À cet impact s’ajoute celui, plus connu, de la formation. C’est l’étape où les modèles d’IA « lisent » une grande quantité de données, puis s’entraînent à répondre aux requêtes. Ce travail nécessite plusieurs jours, voire semaines de calcul, et une masse colossale de données. Pour ne rien arranger, les infrastructures nécessaires se situent principalement dans les pays où l’énergie reste à forte intensité carbone, comme les États-Unis, l’Irlande, mais aussi l’Allemagne.
Mais comme le souligne Tristan Nitot, « ce n’est pas seulement une question d’électricité. » La consommation d’eau est également une question centrale. Pour refroidir les centres de données en surchauffe, les Big Tech utilisent des tours de refroidissement qui consomment de l’or bleu. Ainsi, la consommation d’eau de Microsoft a augmenté d’un tiers par rapport à 2021, et de 21 % pour Google. « Nous devons également réfléchir à l’ensemble du cycle de vie de l’IA, ajoute-t-il. Cela commence par l’extraction des métaux, puis leur transport vers les usines qui fabriquent les transformateurs nécessaires à leur développement, à Taiwan notamment.» Et la consommation des processeurs explose, poussée par le renouvellement du matériel informatique pour le rendre compatible avec les fonctionnalités de l’IA.
Face à ce constat meurtrier, l’industrie tech ne reste pas les bras croisés. Nvidia se targue d’améliorer constamment l’efficacité énergétique de ses GPU, ces puces indispensables à l’entraînement des meilleures IA. Les datacenters adoptent de nouvelles technologies de refroidissement appelées « refroidissement direct », qui consistent à infiltrer directement un liquide à température ambiante dans les serveurs. Une technique qui consomme moins d’eau et d’électricité.
La peur de l’effet rebond
« Nous constatons des améliorations impressionnantes, mais nous n’avons jamais consommé autant de charbon dans l’histoire de l’humanité. Je ne vois pas pourquoi l’IA échapperait au paradoxe de Jevons. » Or, estime Gaël Varoquaux, chercheur à Inria. Ce paradoxe, également appelé « effet rebond », affirme qu’à mesure que les progrès technologiques augmentent l’efficacité avec laquelle une ressource est utilisée, la consommation totale de cette ressource augmente plutôt que diminue.
Côté logiciel, des progrès sont également visibles. La tendance est au développement de petits modèles, tout aussi efficaces pour certains cas d’usage, mais nécessitant jusqu’à dix fois moins de puissance de calcul. Ces petites IA ont également l’avantage de pouvoir fonctionner sur du matériel informatique traditionnel, comme un smartphone ou un ordinateur.
Au-delà de ces avancées techniques, il faudra « disciplinez-vous » selon les mots de Gilles Babinet, président du Conseil national du numérique. « Il faut cesser de mettre à jour constamment les modèles, car le coût énergétique de leur formation reste le problème majeur, privilégier une IA plus spécifique et discriminer certains usages stupides ou inutiles », dit-il.
Mais alors que les géants du numérique ont voulu nous vendre partout l’IA générative, ces usages moins utiles font déjà partie du quotidien de certains. Pierre-Yves Oudeyer, directeur de recherche à Inria qui s’intéresse particulièrement à l’usage de l’IA générative chez les jeunes, observe que cette technologie leur sert parfois d’outil.«interface universelle». Ils lui demandent des informations comme le résultat d’un match de basket, la capitale d’un pays, qu’une simple requête Google aurait facilement fournies. « C’est comme utiliser un bulldozer pour écraser une mouche » il résume. Pour lui, sensibiliser les utilisateurs aux enjeux environnementaux est essentiel pour rationaliser les usages. Après la honte de voler, allons-nous nous sentir coupables à chaque demande ChatGPT ?