Qarnot
The Editorial Team at Qarnot.
QBx
Qarnot's QBx is a computer cluster optimized for both high performance computing and energy efficiency. Each module integrates 12 to 24 processors whose intensive computing heats water: up to 95% of computer waste heat is reused thanks to this technology.

Les différents systèmes de refroidissement des data centers

December 15, 2023 - Introduction

Comprendre l'évolution des systèmes de refroidissement dans les data centers : de l'air à l'eau 

 

Alors que les data centers continuent de se multiplier à travers le monde et de jouer un rôle crucial dans la numérisation de nos sociétés, des enjeux énergétiques et environnementaux impactent leur expansion. Le développement de ces infrastructures s'accompagne d'un défi majeur : gérer la chaleur générée par les serveurs. Cette chaleur, appelée chaleur fatale, doit être évacuée pour assurer le bon fonctionnement des serveurs et la sécurité des équipements.

Les méthodes traditionnelles de refroidissement à air, bien que toujours en usage, cèdent progressivement la place à des techniques plus efficaces et plus économes en énergie, notamment celles fondées sur le refroidissement liquide. Ces nouvelles approches offrent une meilleure gestion thermique tout en réduisant l'empreinte énergétique et environnementale de ces infrastructures. Cet article se propose de plonger dans l'univers des systèmes de refroidissement des data centers, en explorant les différentes méthodologies et technologies qui existent. 
 

Pourquoi refroidir les data centers ?

Les serveurs, en fonctionnant, émettent de la chaleur. Cette chaleur, si elle n'est pas contrôlée, peut entraîner la surchauffe des serveurs et endommager les composants ou provoquer des arrêts, compromettant la continuité des services. Il est donc essentiel de maintenir les data centers à une température modérée, 24 heures/24 et 7 jours/7. 

Le refroidissement à air 


Pendant des années, les salles informatiques étaient composées de planchers surélevés pour acheminer l’air froid vers les serveurs. Après avoir refroidi les serveurs, l’air chaud était renvoyé vers les unités de climatisation CRAC. En raison de son coût d'installation relativement faible, ce système est toujours présent dans certains data centers.

Depuis plusieurs années, l’efficacité énergétique des data centers, mesurée à travers l’indicateur PUE, est devenue une priorité pour les opérateurs. Afin d’améliorer le PUE, la plupart des data centers ont confiné les couloirs chauds des couloirs froids, ce qui a permis d’améliorer la capacité des prises d’air de climatisation. L’augmentation de la température de fonctionnement des serveurs a également permis de réduire la consommation électrique globale des data centers. Malgré ces avancées majeures, dans la plupart des data centers aujourd’hui, le refroidissement des serveurs représente toujours en moyenne près de 40 % de la consommation d’électricité.1
 

Le free cooling 

 

Le free cooling consiste à exploiter l’air frais extérieur pour refroidir les serveurs, il permet de se dispenser de la climatisation. Ce système fonctionne efficacement tant que la température extérieure reste inférieure à 25 °C, il ne peut donc pas être utilisé dans toutes les régions du monde. Et avec la hausse des températures mondiales, il devient plus difficile d'utiliser le free cooling tout au long de l'année.

C’est pourquoi cette méthode est souvent combinée avec le refroidissement de l’air par évaporation d’eau. Ce processus consiste à abaisser la température de l'air en évaporant de l'eau, un mécanisme physique équivalent à la transpiration ou aux tours aéroréfrigérantes des centrales nucléaires. Le refroidissement par évaporation utilise beaucoup moins d’électricité, mais beaucoup plus d’eau.


Ces deux méthodes, souvent utilisées conjointement, permettent un refroidissement efficace durant la majeure partie de l'année. Toutefois, en cas de conditions climatiques extrêmes, comme des pics de chaleur ou des périodes de stress hydrique, ces systèmes atteignent leurs limites. Et dans de telles situations, les data centers recourent à la climatisation traditionnelle, et consomment énormément d’eau et d’électricité. 

 

L'apparition des systèmes de refroidissement liquides

 

L'apparition des solutions de refroidissement liquide dans les data centers est principalement due à l'augmentation des besoins en calcul haute performance et en applications d'intelligence artificielle (IA). Cette tendance a entraîné l'utilisation de processeurs (CPU) et de cartes graphiques (GPU) de plus en plus gourmands en énergie, générant donc des quantités de chaleur importantes.

Contrairement à l'air, les liquides sont de bien meilleurs conducteurs thermiques, offrant une efficacité de transfert de chaleur nettement supérieure – entre 50 et 1000 fois plus efficace. Il existe trois types de refroidissement liquides : 

  • Le Indirect Liquid Cooling 
  • Le Direct Liquid Cooling
  • Le Immersion Cooling

Les méthodes de refroidissement liquides permettent de réduire les coûts énergétiques et d’optimiser l’utilisation de l’espace dans les data centers. D’après une étude de Global Market Insights, le marché du refroidissement liquide des data centers devrait dépasser trois milliards de dollars d'ici 2026, contre 750 millions de dollars en 2018.2
 

Les trois principales technologies de Liquid Cooling 

 

Indirect Liquid Cooling 

Avec le Indirect Liquid cooling, le liquide de refroidissement n'est pas en contact direct avec les équipements informatiques, il est utilisé pour assister le système de refroidissement traditionnel à air. Des échangeurs de chaleur refroidis à l'eau sont montés à l'arrière des racks. L'air chaud émis par les serveurs est soufflé à travers ces échangeurs, où il est refroidi par le liquide circulant à l'intérieur. Ce processus permet de transférer la chaleur de l'air vers le liquide, qui est ensuite refroidi. Le Indirect Liquid Cooling est donc un système hybride qui combine le refroidissement à air avec l'efficacité thermique du liquide. Ce système offre l’avantage de faire circuler plus facilement la chaleur (captée dans l’eau), à travers le data center jusqu’aux installations de refroidissement.

Direct Liquid Cooling 

 

 Le Direct Liquid Cooling, souvent appelé refroidissement direct sur plaque, est une technique qui intègre le système de refroidissement directement dans le châssis du serveur. Cette méthode consiste à acheminer un liquide froid jusqu'à des « cold plates » placées en contact avec les composants qui génèrent le plus de chaleur (processeurs, cartes graphiques…). De petits tuyaux transportent le liquide froid vers chaque plaque, permettant ainsi de capter la chaleur émise par les composants. Une fois réchauffé, le liquide est dirigé vers un dispositif de distribution du liquide de refroidissement ou un échangeur de chaleur pour être refroidi. Une fois que le liquide a été refroidi, il est renvoyé vers les « cold plates ». Ces systèmes de refroidissement sont capables d'éliminer environ 70 à 75 % de la chaleur produite par l'équipement du rack. Les 25 % de chaleur restante sont dissipés par des systèmes de refroidissement à air. 

 


 

Immersion cooling 

 

Dans le refroidissement par immersion, ou Immersion Cooling, les serveurs sont intégralement plongés dans un bain d’huile – isolante électriquement, ce qui supprime les risques de court-circuit –. Un système de pompe et d’échangeur assurent la circulation et le maintien en température de l’huile. Ainsi, tous les composants sont refroidis par liquides et jouissent de leur meilleure conductivité par rapport à l’air. Cependant, ce système rend l’accès et la maintenance des serveurs plus compliqués.

 

 

Le modèle Qarnot : le Direct Water Cooling 

 

La solution proposée par Qarnot repose sur le même principe que le Direct Liquid Cooling, avec la particularité d'utiliser des tuyaux de large diamètre. Cette spécificité permet d’utiliser de l'eau courante sans craindre les problèmes d'encrassement ou la formation de bulles d'air. 


Comment ça marche ? 
 

Les clusters de calculs QBx, qui embarquent des microprocesseurs, sont refroidis par un circuit d’eau qui collecte les calories émises lors du calcul. C’est grâce à des échangeurs thermiques brevetés que la dissipation passive de la chaleur émise par les processeurs opère pour chauffer l’eau circulante. L’eau serpente dans des tuyaux de cuivre de gros diamètre et se réchauffe au contact de la chaleur de l’activité informatique. En sortie, la température de l’eau monte à plus de 60° C et alimente un circuit d’eau en continu. Les clusters sont dimensionnés pour chauffer toute l’année le talon de consommation d’eau chaude, quels que soient le site d’installation et le cas de figure (boucle, préchauffage…).



 

Puisque la chaleur est captée dans l’eau, Qarnot ne consomme ni eau ni énergie pour assurer le maintien en température des serveurs. Le modèle fonctionne ainsi en circuit fermé, et toute l’eau qui est utilisée, plutôt que d’être gaspillée, sert in fine à chauffer des bassins de centres aquatiques, des douches, ou des sites industriels.
Cette technologie hautement innovante et brevetée de direct water cooling permet de récupérer jusqu’à 95 % de la chaleur dégagée par les serveurs informatiques.
 

Au-delà du refroidissement : repenser les usages et la consommation des ressources 

 

L'innovation dans les méthodes de refroidissement des data centers, notamment le Direct Liquid Cooling, ouvre des perspectives prometteuses pour améliorer l'efficacité énergétique et minimiser l'impact environnemental. Cependant, malgré leur potentiel, ces technologies ne sont pas encore optimisées pour la récupération et la réutilisation de la chaleur fatale. Cette problématique est pourtant déjà au cœur des nouvelles exigences des politiques publiques, comme le montre la directive européenne de 2023 imposant aux data centers de plus de 1 MW de valoriser cette chaleur fatale.


Parallèlement, il ne faut pas oublier que les gains d'efficacité énergétique dans les data centers sont souvent annulés par l'augmentation exponentielle des services et des usages. Ce qui engendre des impacts environnementaux considérables : émissions de gaz à effet de serre, utilisation des ressources non renouvelables, consommation d’énergie, utilisation d’eau douce. Il est essentiel de ne pas se limiter uniquement aux innovations technologiques dans le domaine du refroidissement, mais de repenser les usages numériques autant que les infrastructures numériques, et la consommation des ressources. 
 

 

Sources 

(1) https://mit-serc.pubpub.org/pub/the-cloud-is-material/release/1

(2) https://datacenter-magazine.fr/le-marche-du-refroidissement-liquid-cooling-dans-le-datacenter/

***

https://datacentremagazine.com/articles/transforming-data-centre-cooling-for-a-sustainable-future
https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/investing-in-the-rising-data-center-economy

 

Share on networks

Suggested articles