Cette comparaison, aussi audacieuse que stratégique, vise à rassurer sur l’impact environnemental de l’intelligence artificielle générative, régulièrement pointée du doigt pour sa voracité énergétique. Mais derrière ces chiffres soigneusement calibrés se cache une réalité bien plus nuancée.
Dans un rapport technique publié le 21 août 2025, Google détaille pour la première fois la consommation énergétique et les émissions de gaz à effet de serre associées à une simple requête envoyée à Gemini, son assistant dopé à l’IA. Le géant californien y affirme qu’une réponse textuelle médiane mobilise environ 0,24 Wh d’électricité, soit moins qu’une ampoule LED de 10 watts allumée pendant deux secondes, rejette 0,03 gramme de CO₂, et requiert à peine 0,26 millilitre d’eau, l’équivalent de cinq gouttes. L’entreprise revendique également une amélioration spectaculaire de l’efficacité énergétique : en un an, l’empreinte carbone par requête aurait été divisée par 44, et la consommation électrique par 33.
Ces chiffres s’appuient sur une méthodologie inédite, selon Google
Contrairement aux estimations classiques qui ne prennent en compte que l’énergie utilisée par les puces actives (GPU, TPU…), le calcul proposé ici intègre toute la chaîne : alimentation, refroidissement, infrastructure, hôtes inactifs… Une approche “full-stack” qui permettrait, selon Mountain View, de dresser un portrait plus fidèle de l’impact réel de l’intelligence artificielle dans un usage courant.
Pour autant, plusieurs experts appellent à la prudence. D’abord, parce que cette étude ne porte que sur l’inférence, c’est-à-dire la phase où l’IA génère une réponse à partir de données déjà apprises. Or, l’entraînement des modèles de langage, beaucoup plus énergivore, est totalement exclu de cette équation. À titre d’exemple, selon une étude de mars 2025, l’entraînement d’un grand modèle comme Gemini pourrait émettre jusqu’à 493 tonnes de CO₂ et consommer 2,7 millions de litres d’eau, soit plus que ce qu’un être humain consomme en 25 ans !
Autre point sensible : la méthode de calcul des émissions de gaz à effet de serre. Google utilise une approche dite “market-based”, qui tient compte de ses investissements dans les énergies renouvelables, mais pas forcément de la réalité énergétique locale. Or, un datacenter situé dans une région alimentée majoritairement par du charbon aura un impact bien plus lourd qu’un autre en Islande, même si les deux revendiquent des crédits verts identiques. Plusieurs ONG et chercheurs plaident ainsi pour une approche “location-based”, jugée plus représentative de l’empreinte réelle.
Le volet hydrique n’échappe pas non plus à la controverse. Les chiffres avancés par Google, cinq gouttes d’eau par requête, paraissent presque anecdotiques. Mais ils ne tiennent compte que de l’eau directement utilisée pour le refroidissement des serveurs. Or, la production d’électricité, notamment dans les centrales thermiques ou hydroélectriques, mobilise des quantités bien plus importantes d’eau douce. En intégrant ces données, la consommation hydrique réelle pourrait être multipliée par dix, voire plus, selon certaines estimations.
Au-delà des chiffres, c’est surtout la logique du raisonnement qui interroge
Car si l’empreinte d’une requête peut sembler minime, elle se dilue difficilement dans l’échelle globale. Une technologie plus efficiente, en particulier lorsqu’elle est présentée comme écologique, tend à être utilisée plus fréquemment. C’est ce qu’on appelle l’effet rebond : l’optimisation énergétique d’un service entraîne une augmentation de son usage, ce qui annule ou dépasse les gains initiaux. Aujourd’hui, des milliards de requêtes sont traitées chaque jour par des IA, la multiplication des usages finit donc par peser bien plus lourd que chaque requête individuelle.
Il faut aussi rappeler que les datacenters, déjà responsables d’environ 1 à 2 % de la consommation électrique mondiale, devraient voir leur part bondir dans les prochaines années avec l’essor de l’IA. Une étude prospective anticipe jusqu’à 652 térawattheures consommés annuellement d’ici 2030, dont plus des deux tiers imputables à l’intelligence artificielle. Quant à l’eau, les modèles actuels pourraient en consommer jusqu’à 6,6 milliards de mètres cubes d’ici 2027, soit davantage que l’ensemble de la consommation annuelle d’un pays comme le Danemark.
En rendant publics ces chiffres, Google amorce une démarche de transparence saluée par une partie de la communauté scientifique. Mais il reste à voir si cette publication isolée fera école. Car aujourd’hui, aucun standard commun n’existe pour mesurer l’impact environnemental de l’IA de manière cohérente. Faute de cadre partagé, chaque acteur choisit sa propre méthode, avec des résultats difficilement comparables et souvent orientés.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.