Panier d'achat

Réutilisation de l'énergie thermique des centres de données : refroidissement par eau chaude

Dans cette série, nous explorons les différentes façons dont les opérateurs de centres de données tentent d'être des citoyens du monde responsables tout en assurant un retour sur investissement à long terme en réduisant leur empreinte carbone par la capture et la réutilisation de l'énergie thermique produite par leurs équipements TIC. J'ai pris comme point de départ de ma conversation un article d'octobre 2011 intitulé MIT Technology Review article de Neil Savage, "Greenhouse Effect : Five Ideas for Re-using Data Centers' Waste Heat". Les cinq exemples qu'il cite dans cet article représentent en fait cinq stratégies générales et je trouve donc qu'ils constituent un point de départ utile pour explorer les développements survenus au cours des neuf années suivantes. Ces idées étaient les suivantes :

Le centre de données de l'université de Notre Dame a chauffé une serre.

Un centre de données de l'université de Syracuse produit sa propre électricité et utilise l'excédent d'eau froide pour climatiser un immeuble de bureaux adjacent en été et l'excédent d'eau chaude pour le chauffer en hiver.

Un centre de données de recherche d'IBM à Zurich utilisait un système de refroidissement liquide à eau chaude et utilisait l'eau "de retour", plus chaude, pour chauffer un laboratoire adjacent.

Le Oak Ridge National Laboratory a mis au point un mécanisme qui se fixe sur un microprocesseur et produit de l'électricité.

Un centre de données Telecity à Paris a fourni de la chaleur pour des expériences de recherche sur les effets du changement climatique. 

Dans la première partie, nous avons examiné des variations sur l'utilisation par l'Université Notre Dame de l'air chaud résiduel du centre de données pour maintenir une serre adjacente pendant ces hivers du nord de l'Indiana. Bien que nous ayons couvert plusieurs exemples différents de réutilisation de l'air chaud, en général, la faible qualité énergétique de l'air à 80-95˚F et l'exigence que l'application soit essentiellement adjacente au centre de données ont présenté des obstacles raisonnables à un retour sur investissement attractif. En examinant l'utilisation de l'air résiduel à 80˚F d'une salle UPS pour réduire l'ascenseur sur la cible de 100˚F des blocs chauffants, nous avons déterminé qu'il était possible de démontrer que des pratiques efficaces de gestion du débit d'air permettant à un centre de données de fonctionner plus près de la limite supérieure recommandée par l'ASHRAE produiraient un air résiduel qui pourrait éliminer complètement le besoin de blocs chauffants. Cet exemple permet d'éliminer les obstacles liés à la qualité de l'énergie et à la contiguïté. Par ailleurs, nous avons constaté que les utilisations les plus efficaces de l'énergie thermique provenant de l'air de retour des centres de données se produisaient dans les réseaux locaux de chauffage urbain d'Europe du Nord et avons découvert que plus de 10% de l'énergie de chauffage de la Suède proviennent des centres de données. En fait, les districts de chauffage locaux, sous une forme ou une autre, représentent un modèle utile pour la réutilisation efficace de l'énergie des centres de données, comme nous le verrons dans les discussions suivantes.

J'ai inventé le terme " exploiter la boucle " pour la deuxième catégorie de réutilisation de l'énergie des centres de données, dans laquelle le côté alimentation de la boucle d'eau glacée peut être exploité pour le refroidissement auxiliaire et le côté retour peut être exploité pour le chauffage ou le refroidissement. Dans l'exemple de l'Université de Syracuse cité dans l'article de Savage, la principale source d'énergie à réutiliser était l'échappement de la turbine, qui était suffisamment chaud pour faire fonctionner des refroidisseurs à absorption afin d'assurer la climatisation du bâtiment, qui était utilisée pour refroidir le centre de données, ou suffisamment chaud pour passer par un échangeur de chaleur afin de chauffer le bâtiment pendant l'hiver. Le projet Westin-Amazon à Seattle est un exemple plus récent d'exploitation de la boucle. Il a nécessité une ingénierie un peu plus simple, mais beaucoup plus de créativité dans la gestion globale du projet, qui a exigé la collaboration de plusieurs agences gouvernementales, de services publics et de sociétés poursuivant des intérêts mutuellement bénéfiques. Essentiellement, les immeubles de bureaux d'Amazon représentent l'équivalent d'un "client" du district de chauffage local pour Clise Properties (le propriétaire de l'hôtel Westin Carrier), et Clise Properties et McKinstry Engineering ont formé une entité enregistrée en tant que société de services publics agréée. Amazon évitera quelque 80 millions de kW-heures de coûts d'énergie de chauffage et Clise Properties évitera les dépenses liées au fonctionnement des tours d'évaporation et les pertes d'eau qui en résultent. Alors que le modèle Westin-Amazon représente pour moi le plan parfait pour un projet efficace de réutilisation de l'énergie d'un centre de données en boucle, l'examen d'un projet similaire annulé au Massachusetts Institute of Technology a révélé la complexité de la tâche consistant à rassembler tous les chats pour une telle entreprise, ce que nous verrons à nouveau dans cette troisième partie de la série.

La troisième catégorie de réutilisation de l'énergie thermique des centres de données provenant de la MIT Technology Review est le refroidissement par eau chaude, qui peut bénéficier à l'une ou l'autre des deux premières catégories, mais qui est particulièrement bénéfique avec le refroidissement liquide des centres de données (qui gagne enfin une traction significative dans notre secteur). Comme mentionné précédemment, si l'air usé du centre de données est utilisé pour faciliter le démarrage des générateurs, l'augmentation de l'air d'alimentation de 65˚F ou 70˚F à 78-80˚F produira une température d'air de retour suffisamment élevée pour éliminer les blocs chauffants. De plus, dans le projet Westin-Amazon, une bonne exécution du confinement du flux d'air du centre de données pourrait permettre d'augmenter suffisamment l'alimentation en eau du centre de données vers l'échangeur de chaleur du service public pour réduire la levée de l'installation de récupération de chaleur de 28%. Dans aucun de ces cas, il ne s'agit de refroidir avec de l'eau tiède ou chaude, mais même en déplaçant l'aiguille, ces petits pas peuvent produire des avantages significatifs. Lorsque nous commençons à travailler avec de l'eau chaude, nous obtenons une énergie thermique résiduelle de meilleure qualité et l'eau est plus facile à déplacer que l'air.

Le centre de données de démonstration d'IBM au laboratoire de recherche de Zurich a tiré parti des innovations en matière de refroidissement liquide par contact direct, l'eau chaude étant pompée dans des microcanaux en cuivre fixés aux puces informatiques. Ils ont constaté que l'eau d'alimentation de 140˚F maintenait la température des puces autour de 176˚F, soit bien en dessous du maximum recommandé de 185˚F. Ce refroidissement à l'eau chaude a permis d'obtenir une température de " retour " post-processus de 149˚F, ce qui constituait une énergie thermique de qualité adéquate pour le chauffage et le refroidissement du bâtiment par le biais d'un refroidisseur à absorption, sans avoir besoin d'un appoint de pompes à chaleur. En plus de fournir de la chaleur à un laboratoire adjacent, le refroidisseur à absorption a fourni 49 kW de capacité de refroidissement à environ 70˚F. Un aperçu simplifié de cette approche est illustré dans la figure 1 ci-dessous.

Figure 1 : Flux simplifié de la réutilisation de l'énergie de refroidissement liquide d'un centre de données.

À peu près au même moment où l'expérience de refroidissement liquide à eau chaude d'IBM (proof of concept) était mise en œuvre en Suisse, eBay expérimentait le refroidissement à eau chaude à Phoenix dans le cadre du Mercury Project, qui a fait couler beaucoup d'encre. Le projet Mercury impliquait une partie du centre de données refroidie par une boucle d'eau glacée reliée à des refroidisseurs, puis un second centre de données utilisant l'eau de retour du condenseur du premier centre de données jusqu'à 87˚F pour alimenter des échangeurs thermiques à porte arrière montés sur rack. Évidemment, les températures dépassaient les températures d'entrée d'air des serveurs recommandées par l'ASHRAE, mais restaient dans la plage admissible de la classe A2. C'est dans le cadre de cette opération que Dean Nelson et son équipe ont imaginé une mesure de l'efficacité des centres de données basée sur la mission commerciale, liant les coûts des centres de données aux transactions commerciales des clients, donnant ainsi forme à ce point de basculement illusoire entre l'efficacité et l'efficience des centres de données. Dans ce cas, le "client" était interne et la chaleur résiduelle n'était pas utilisée comme source d'énergie thermique mais comme source de refroidissement.

Le modèle du projet Mercury offre en fait une vision du refroidissement à l'eau chaude à faible risque qui pourrait être disponible pour de nombreux centres de données sans avoir à effectuer une transition complète vers une forme de refroidissement liquide à contact direct. Par exemple, les centres de données utilisant des échangeurs de chaleur à porte arrière peuvent fonctionner avec des températures d'alimentation au nord de 65˚F, ce qui dépasse facilement la température de retour d'une boucle d'eau de refroidissement de confort du bâtiment. L'utilisation de l'eau de retour est essentiellement un refroidissement gratuit et ensuite, pendant la période de l'année où la climatisation du bâtiment peut ne pas fonctionner en continu (ou pas du tout, mes amis du Minnesota), les échangeurs de chaleur de la porte arrière peuvent être alimentés par un économiseur d'échangeur de chaleur à refroidissement gratuit. Le même principe s'applique au refroidissement liquide par contact direct, dont le fonctionnement devrait être essentiellement gratuit dans toute installation présentant une charge de refroidissement de confort de taille significative.

Plus récemment, IBM Zurich a transformé la preuve de concept en un superordinateur de production complet à Zurich (LRZ SuperMUC-NG), avec un projet parallèle à Oak Ridge, dans le Tennessee. Bruno Michel, responsable de l'intégration des systèmes intelligents dans les laboratoires de Zurich, affirme que le superordinateur de production est en fait une installation à émissions négatives, car tous les équipements TIC sont alimentés par des énergies renouvelables et le chauffage et le refroidissement produits par le centre de données permettent d'éviter les émissions. Le profil de température des différentes étapes du processus de la figure 1 variera en fonction de la situation et des exigences du client. Par exemple, pour fournir du refroidissement au réseau et à l'équipement de stockage par temps chaud lorsque le refroidissement gratuit n'est pas disponible et pour fournir de l'énergie thermique utilisable aux réseaux de chauffage urbain par temps plus frais, le centre de données fonctionne à 149˚F. Pour fournir un chauffage au sol aux clients résidentiels, il peut descendre à 131˚F et pour soutenir le free cooling à Oak Ridge, ils fonctionneront à 113˚F. Le refroidisseur à absorption Fahrenheit fonctionne avec une température d'entraînement de 127˚F pour fournir de l'eau glacée à 68˚F aux unités de refroidissement desservant les équipements de stockage et de réseau, avec une capacité de refroidissement totale de 608kW.

Le projet d'IBM repose sur une innovation révolutionnaire en matière de réduction de la résistance thermique, permettant ainsi d'augmenter la température de l'eau au niveau de la puce, ce qui se traduit par une amélioration réelle des performances globales de la puce. Néanmoins, n'importe laquelle des diverses solutions de refroidissement liquide par contact direct disponibles sur le marché aujourd'hui peut offrir une partie significative des avantages du refroidissement par eau chaude. Elles font toutes leurs propres déclarations sur la température à laquelle l'eau d'alimentation "de refroidissement" peut être chauffée pour maintenir des températures adéquates sur la puce et même améliorer les performances de la puce par rapport au refroidissement par air traditionnel. Même si ces températures ne sont pas assez élevées pour remplacer directement les sources de chauffage traditionnelles (chaudières, etc.) ou pour faire fonctionner des refroidisseurs à absorption, elles sont suffisamment élevées pour réduire considérablement l'élévation nécessaire des pompes à chaleur pour porter cette chaleur à un niveau utile. De plus, aux températures de refroidissement liquide, il ne devrait pas y avoir besoin de refroidisseurs ou de refroidissement mécanique. La prochaine fois, nous examinerons certains des compromis en matière d'investissement et de coûts opérationnels associés à l'exploitation des avantages du refroidissement à l'eau chaude, ainsi que certains des défis sociétaux et infrastructurels plus vastes.

0 0 votes
Évaluation des articles
S'abonner
Notification pour
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x
fr_FRFrench