Travaux en datacenter : des chantiers techniques aux économies d’énergie mesurables

Dans le cadre du Challenge CUBE Datacenter, de nombreux sites candidats profitent des travaux pour engager de vraies transformations énergétiques. Confinement des allées, optimisation des groupes froids, décommissionnement, densification de l’usage, pilotage fin des équipements, etc.
Mesurer avant d’agir : la base de tout chantier
Avant de lancer un programme de travaux, la méthodologie CUBE Datacenter insiste sur la mesure et le suivi des indicateurs. Cela peut être la consommation totale, PUE (Power Usage Effectiveness), taux de charge, températures en salle. La mise en place d’objectifs SMART (spécifiques, mesurables, atteignables, réalistes, temporellement définis) permet ensuite de piloter les travaux et d’en quantifier les gains. Un simple travail de métrologie et de chasse aux gaspillages peut déjà conduire jusqu’à 40% d’économies d’énergie sur certains sites.
Confinement et travaux en salle : reprendre la main sur l’air
Un premier bloc de travaux concerne la salle informatique elle-même, en particulier la gestion des flux d’air.
- Mise en place ou rénovation des confinements (allées froides/chaudes), pose de toits et portes, comblement des trous, cache‑U, passe‑câbles.
- Réglage des armoires de climatisation : hausse des consignes de soufflage, régulation des ventilateurs sur la température de reprise.
- Adaptation de l’hydraulique : modification des consignes de pompes, hausse des régimes d’eau glacée, en s’appuyant si besoin sur des études CFD pour éviter les points chauds.
L’ASHRAE recommande des plages de température plus larges (18–27 °C pour les classes A1 à A4). Cela permet d’augmenter les consignes sans compromettre la fiabilité des équipements. Une simple augmentation de 1°C du régime d’eau glacée peut générer environ 3% de gain sur la consommation des groupes froids. A l’inverse, l’ajout de confinement permet souvent de remonter les consignes en salle de 5 à 10°C.1
Groupes froids et travaux extérieurs : maîtriser les flux d’air
De nombreuses études montrent que la chaîne de refroidissement peut représenter plus de la moitié de la consommation d’un data center. En toiture ou en cour, un autre volet de travaux cible directement les groupes froids.
- Études de simulation des flux d’air extérieur pour quantifier le recyclage de l’air chaud rejeté par les groupes.
- Mise en place de solutions physiques : jupes pour relever le rejet, « 5e façade », réhausse des équipements, panneaux latéraux, autres systèmes de canalisation de l’air.
- Ajustement des stratégies d’exploitation : pilotage du nombre de groupes froids en fonctionnement selon la charge IT et la température extérieure.
Par exemple, certains travaux indiquent une variation typique d’environ 1 à 2% de rendement par degré de température d’eau glacée2. Ces travaux extérieurs, souvent peu visibles pour les utilisateurs, ont pourtant un impact direct sur le PUE. Ils impactent également la résilience en période de canicule.
Optimiser la charge et le nombre d’équipements
De nombreux datacenters disposent d’équipements (UPS, transformateurs, groupes froids, pompes) dimensionnés pour une puissance IT maximale qui n’est pas toujours atteinte.
- Analyse des rendements en fonction du taux de charge pour chaque grande famille d’équipement. Cela peut être ASI/UPS3, transformateurs, GTZ4, groupes froids, climatiseurs, pompes.
- Détermination du nombre minimal d’unités à maintenir en service tout en respectant le niveau de redondance cible.
- Reconfiguration des schémas d’exploitation pour concentrer la charge sur un nombre optimisé d’appareils.
Nous avons vu la part importante que représente la chaîne de refroidissement dans la consommation d’un data center. De fait, toute optimisation de son pilotage et de son fonctionnement partiel permet d’obtenir des économies. Cela peut concerner le staging, variateurs de vitesse ou les séquences optimisées. On peut les estimer à 10% et plus sur la consommation du système de froid, selon la configuration de l’installation. À PUE constant (par exemple 1,5), l’amélioration du rendement des ASI se traduit directement par une baisse de la consommation totale. Cela concerne également des besoins de climatisation des locaux techniques.
Décommissionnement : un chantier de travaux à part entière
Le décommissionnement des équipements IT et du câblage associé est un volet souvent repoussé. Mais celui-ci devrait être intégré pleinement dans la programmation de travaux.
- Décommissionnement des équipements : retrait des serveurs et équipements obsolètes, mise à jour de la CMDB, sécurisation de la suppression des données (RGPD), adaptation des contrats de maintenance.
- Décommissionnement du câblage : désengorgement des chemins de câbles et du plancher technique, suppression des « murs thermiques », libération de U, réutilisation ou valorisation des cordons.
- Gestion de fin de vie écoresponsable : réparation, réemploi, revente à des brokers, recyclage DEEE via des filières agréées.
Les gains sont multiples : libération de m², réduction des infrastructures à maintenir, baisse de la consommation électrique (entre 3 et 10%). Ou encore diminution des risques de surchauffe et d’incidents liés aux câbles et aux vieux matériels. Le décommissionnement devient ainsi un levier à part entière de performance énergétique, environnementale et de sécurité.
Densifier l’usage : faire plus avec moins de m²
Autre type de travaux : ceux qui visent à densifier l’usage des salles informatiques, en tirant parti des nouvelles technologies.
- Renouvellement des équipements IT vers des générations plus performantes et plus denses, y compris sur la partie réseau (migration progressive du 40G au 100G).
- Réorganisation du câblage (haute densité, structuration, suppression des « plats de nouilles »), consolidation des baies et réduction de la surface occupée.
- Mise en place d’outils d’exploitation type DCIM pour piloter le taux de remplissage des baies et la puissance par baie, en toute sécurité.
La densification permet d’augmenter la puissance par m², de libérer des surfaces, et d’envisager des solutions innovantes de refroidissement (bain d’huile, refroidissement à eau du processeur, portes froides). On limite ainsi la construction de nouvelles salles et on améliore le PUE en concentrant les charges sur des zones mieux refroidies.
Conclusion
Tous ces travaux (confinement, groupes froids, optimisation des équipements, décommissionnement, densification) s’inscrivent dans la logique « mesurer – agir – améliorer » au cœur de CUBE Datacenter. Ils créent des opportunités de gains immédiats (ajustements de consignes, optimisation de la charge) et de gains structurels (réorganisation des salles, rénovation des installations de froid, décommissionnement massif). En les documentant bien (indicateurs avant/après, PUE, consommation, taux de charge), les équipes peuvent valoriser leurs chantiers dans le Championnat de France des économies d’énergie et inspirer les autres acteurs.
Notes de bas de page
- Les plages de température recommandées pour l’air d’admission des équipements informatiques, telles que définies par l’ASHRAE TC 9.9 dans le guide “Equipment Thermal Guidelines for Data Processing Environments” (5e édition, 2021), fixent pour les classes A1 à A4 une plage de 18 à 27 °C au niveau des entrées serveurs. ↩︎
- Energy performance analysis of multu-chiller cooling system for data centers concerning progressive loading throughout the lifecycle under typial climates ↩︎
- UPS est l’acronyme anglais de Uninterruptible Power Supply, l’équivalent d’ASI (Alimentation Sans Interruption); l’onduleur qui assure la continuité d’alimentation électrique des serveurs et équipements critiques. ↩︎
- « Groupes dits Temps Zéro » désigne des groupes de secours conçus pour prendre la charge sans temps de latence perceptible, en complément de la chaîne ASI/UPS (logique de continuité de service très élevée dans les data centers) ↩︎


