Alors que l’IA s’immisce absolument partout dans notre quotidien de façon parfois invisible, il y a quelque chose de bien concret auquel on ne pense pas toujours : les datacenters gigantesques qui engloutissent des quantités astronomiques d’électricité. Et cette facture, c’est nous qui risquons de la payer.
Les Américains trinquent déjà
Outre-Atlantique, le réveil est brutal. Dans certaines zones proches des datacenters, les factures d’électricité ont grimpé de 36 % entre 2020 et 2025. Le mécanisme est simple, mais implacable. Les datacenters consomment tellement d’électricité qu’ils saturent les réseaux locaux.
Ainsi, les compagnies d’électricité doivent investir des milliards dans de nouvelles infrastructures. Et devinez qui finit par payer ? Les consommateurs, évidemment. Dans la région PJM (le plus grand réseau électrique américain), les habitants vont débourser 16,6 milliards de dollars entre 2025 et 2027 rien que pour sécuriser l’approvisionnement des datacenters.
Évidemment, l’opposition s’organise devant de telles dépenses ayant pour finalité de proposer des fonctions dont tout le monde se fout sur smartphone ou encore des moyens de créations de vidéos aussi délirantes qu’inutiles. En 2025, au moins 25 projets de datacenters ont été purement et simplement annulés suite aux protestations des riverains. Les habitants en ont marre de subventionner indirectement l’appétit énergétique des géants de la tech.
OpenAI promet de payer la facture, mais peut-elle tenir ?
Face à la grogne montante, OpenAI et Microsoft viennent de faire de grandes promesses. OpenAI a annoncé son plan « Stargate Community » où l’entreprise s’engage à « payer sa part sur l’énergie » et garantit que ses opérations ne feront pas grimper les factures locales. Microsoft avait sorti le même discours une semaine plus tôt.
Le problème ? OpenAI perd 8 à 14 milliards de dollars par an. L’entreprise brûle 2,25 dollars pour en gagner un seul. Sur ses 800 millions d’utilisateurs de ChatGPT, seulement 5 % paient un abonnement. Même l’offre Premium à 200 dollars par mois fait perdre de l’argent à chaque client. L’économiste Sebastian Mallaby, du Council on Foreign Relations, estime qu’OpenAI pourrait manquer de liquidités dès mi-2027.
Alors ces belles promesses d’infrastructures payées ? C’est en réalité un tour de passe-passe financier. OpenAI ne s’endette pas directement, ce sont principalement ses partenaires tels que Oracle, SoftBank et CoreWeave qui ont contracté 96 milliards de dollars de dettes pour financer les projets de datacenters. Même si cela semble peu probable, si OpenAI fait faillite dans deux ans, qui remboursera ? Et surtout, qui paiera les factures d’électricité des infrastructures déjà construites ?
Est-ce que les Français vont devoir payer les factures de l’IA ?
Le gouvernement français se veut rassurant. Emmanuel Macron l’a martelé lors du Sommet de l’IA en février 2025, grâce au nucléaire, nous produisons une électricité décarbonée et pilotable. Mieux encore, notre production dépasse nos besoins actuels et donc, pas besoin d’augmenter celle-ci pour accueillir des datacenters.
Sur le papier, ça tient la route. Les datacenters français consomment actuellement 10 térawattheures par an, soit 2 % de notre consommation nationale. C’est dix fois moins que l’Irlande, où ces infrastructures avalent 21 % de l’électricité du pays. Attention cependant, RTE, le gestionnaire du réseau électrique français, prévoit un triplement de la consommation d’ici 2035. On passerait de 10 à 28 térawattheures. L’Ademe, elle, table sur une multiplication par 3,7. Et dans le pire des scénarios, si tous les projets annoncés se concrétisent, on pourrait atteindre 80 térawattheures, soit 15 % de notre production nucléaire actuelle.
Les investissements affluent avec Microsoft, Amazon et Equinix où 109 milliards d’euros ont été promis lors du dernier sommet. Microsoft prévoit son plus gros investissement jamais réalisé en France avec 6 milliards. Un campus géant de 1,4 gigawatt est prévu pour 2028 en Île-de-France. Pour mettre les choses en perspective, un datacenter de 10 000 m² consomme autant qu’une ville de 50 000 habitants.
L’IA aggrave tout. Une requête ChatGPT mange dix fois plus d’énergie qu’une recherche Google. Les datacenters dédiés à l’IA consomment quatre à cinq fois plus que les datacenters traditionnels. L’IA représente déjà 20 % de la consommation des centres de données et pourrait atteindre 49 % dès cette année.
Qui va payer la note ?
RTE a annoncé 53 milliards d’euros d’investissements sur 15 ans pour raccorder ces nouveaux datacenters. Ces coûts sont généralement répercutés sur tous les consommateurs via le TURPE, la taxe sur l’utilisation du réseau. Les datacenters bénéficient en plus d’avantages fiscaux. Jusqu’à fin 2025, ils payaient 0,50 euro par mégawattheure de taxe sur l’électricité, bien en dessous du tarif standard que payent les autres entreprises et les particuliers. Qui compense la différence ? Nous, encore une fois.
La concentration géographique pose problème. L’Île-de-France représente déjà 64 % de la consommation nationale des datacenters. Marseille et les Hauts-de-France suivent. Ces régions risquent de subir les hausses les plus brutales, avec des réseaux locaux sous tension et des investissements massifs à financer.
À court terme, le risque reste limité. Le nucléaire nous donne quelques années de marge. Mais entre 2028 et 2035, quand les grands projets seront opérationnels, l’équation pourrait se compliquer sérieusement.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.