Moderne Kühlkonzepte im Data Center

am 10. Dezember 2018
Heutige Rechenzentren verbrauchen Unmengen an Energie – und damit auch viel Geld. Moderne Kühlkonzepte wie On-Chip-Cooling und Liquid Immersion Cooling helfen, das Data Center kühl zu halten und die Energiekosten deutlich zu senken. Das physische Umfeld eines Rechenzentrums sollte aber nicht vergessen werden.

Wie energiehungrig Data Center heutzutage sind, ist selbst vielen IT-Verantwortlichen nicht bewusst - und damit auch nicht, wieviel Geld energetisch nicht optimierte Rechenzentren verschlingen. Rund die Hälfte der Kosten für den IT-Betrieb entfällt aktuell auf den Energiebedarf. Und der Anteil der Energiekosten am RZ-Betrieb wird weiter zunehmen. Denn mit der wachsenden Datenmenge steigt auch die Rechenleistung von Rechenzentren - und damit die Wärmeentwicklung, die reduziert werden muss.

Wie gewaltig der Energiebedarf ist, sieht man bereits an den kleinsten Struktureinheiten eines Rechenzentrums - den Racks. "Schon ein einziges Rack kann eine Energiedichte haben, die ausreichend ist, um ein Einfamilien-Haus zu heizen", sagt Wilfried Cleres, Distinguished Engineer bei Fujitsu. "Normalerweise haben Unternehmen aber nicht nur ein Rack, sondern 100, 300 oder 1.500 Racks - und das auf engstem Raum."

Fujitsu beschäftigt sich schon lange mit Cooling-Konzepten. Das Unternehmen setzt mehrere unterschiedliche Kühl-Technologien bei seinen Kunden und im eigenen Rechenzentrum ein. Zudem verbindet es Energie, Kühlung, Kapazität, Betriebsprozesse und örtliche bauliche Bedingungen im Rahmen des Data Center Infrastructure Management (DCIM) zu einer Gesamtlösung, die unterschiedlichen Anforderungen gerecht wird. Die DCIM Lösungen sind hierbei nur ein Baustein des Fujitsu Data Center Management und Automation (DCMA) Portfolios, in dem neben DCIM auch IT Operations Management (ITOM) adressiert wird.

Server in der Wanne

So gibt es im Serverbereich heute zahlreiche innovative Möglichkeiten, um die Wärme effizient abzuleiten und den Energiebedarf zu senken. Die Hardware-Kühlung durch Lüfter ist eine schon lange bewährte und weitverbreitete Technologie, die natürlich nicht obsolet ist - doch Lüfterkühlung ist heute allenfalls ein Baustein für Server-Kühlung.

Ein moderneres Cooling-Konzept ist die direkte Kühlung der Chips durch Flüssigkeiten. Mit diesem "On-Chip-Cooling" lassen sich über 70 Prozent der Wärmeentwicklung in Servern und Storage-Systemen ableiten. Für diese direkte Prozessorkühlung gibt es unterschiedliche Lösungen. Bei der Fujitsu Liquid Cooling Technology ist die Flüssigkeit unmittelbar auf CPUs, GPUS und Speichermodulen positioniert - also dort, wo die maximale Wärme entsteht. Die entstehende Hitze wird dann mit Kühlkörpern und Pumpen direkt in das flüssige Kühlmedium geleitet. Das ergibt laut Analysten-Studien eine Reduzierung der Kühlungskosten um bis zu 50 Prozent und es lassen sich Energiedichten von bis zu 40KW pro Rack erreichen.

Neben diesem punktuellen Kühlen an Hitze-Hotspots wie CPU und GPU werden neuerdings auch ganzheitliche Kühltechnologien eingesetzt. Beim "Liquid Immersion Cooling" versenkt man die ganze Hardware in eine mit Kühlflüssigkeit gefüllte Wanne, die das ganze System umströmt und gleichmäßig kühlt. Diese Art der Kühlung hat sich besonderes bewährt, wenn höhere Packungsdichten erreicht werden sollen. Nützlich ist das Konzept auch in rauen Umgebungen mit hoher Hitze, Luftfeuchtigkeit oder Verschmutzung.

Eine besondere Herausforderung stellt sich beim Edge Computing etwa in Produktions- und Fertigungshallen. Solche Umgebungen erfordern aufgrund von Staub und Schmutz in der Regel ein Verzicht auf Lüfterkühlung. Stattdessen wird die Hitze über starke Kühlbleche abgeführt. Fujitsu hat mit dem Cool-Safe Advanced Thermal Design eine spezielle Edge-Kühllösung aus Hard- und Software entwickelt. Damit ist es möglich, Edge-Server bei Umgebungstemperaturen von bis zu 50 Grad Celsius sicher zu betreiben.

Die vier Fujitsu-Cooling-Konzepte im Überblick

  1. Die klassische Hardware Kühlung durch Lüfter

  2. Edge Computing - staubdichte Kühlung ganz ohne Lüfter, Flüssigkeiten oder ähnliches, zusammen mit intelligenter Software

  3. Die Kühlung durch Flüssigkeiten direkt auf dem Chip

  4. Das Liquid Immersion Cooling, bei dem der gesamte Server in einer Kühlflüssigkeit "versenkt" wird

Hotspots identifizieren

Rein technische Lösungen ohne Zusatzmaßnahmen und Services genügen allerdings nicht. Aufgrund der hohen Komplexität moderner Data Center sollte auch das physikalische Umfeld analysiert und überwacht werden. Nur so lassen sich durch Wärme oder Luftfeuchtigkeit verursachte Systemausfälle vermeiden.

Mit speziellen Tools und Methoden kann Fujitsu die Problemstellen im laufenden Betrieb identifizieren. "Um energetische Schwachpunkte zu erkennen, setzen wir zum Beispiel die Computing-Power ins Verhältnis zur aufgenommenen elektrischen Energie", sagt Fujitsu-Experte Wilfried Cleres. Die steigende Systemdichte im Rechenzentrum erfordert auch den Aufbau einer flexiblen Temperatur-Sensor-Matrix. Diese Matrix legt definierte und standardisierte Sensorpunkte fest und macht die dort herrschende Temperatur transparent.

Die Temperatur-Sensor-Matrix lässt sich mit einem "digitalen Zwilling" für weitere Optimierungen einsetzen. Ein digitaler Zwilling bildet das Rechenzentrum softwaretechnisch nach. Liegt der Fokus auf Kühlung, wird beispielsweise modelliert, welche Geräte wo eingebaut und wie diese am Netzwerk und Stromanschluss verkabelt sind. "Wir können mit diesen Verfahren über die Temperatur-Sensor-Matrix das Temperaturgefälle sowie die Temperatur- und Luftströme transparent machen und den aktuellen Status zeigen", erklärt Cleres.

Das Werkzeug unterstützt aber auch bei zukünftigen Vorhaben. Sollen beispielsweise neue Komponenten integriert werden, ist im Vorhinein oft nicht klar, wie sich diese energetisch verhalten und in die bestehende Infrastruktur einfügen. "In diesem Fall kann der digitale Zwilling gute Dienste leisten, weil die Komponenten noch nicht physisch eingebaut sein müssen", sagt Wilfried Cleres. "So kann der Zwilling schon in der Planungsphase unterstützen und vorschlagen, wo die IT-Komponenten idealerweise integriert werden sollten."

Die Optimierung der Energieeffizienz kann im laufenden Betrieb eines Rechenzentrums erfolgen. In einem Fujitsu Use Case musste ein Kunden-RZ auf den aktuellen Stand der Kühltechnik gebracht werden, ohne dass das Data Center stillgelegt werden durfte. Die Zielsetzung war: Keine Ausfälle, eine Verdoppelung der Energiedichte und eine Halbierung der PUE - also der Power of Usage Effictiveness. Dies gelang: Alle Arbeiten wurden im laufenden RZ-Betrieb ausgeführt, es gab keinerlei Ausfallzeiten, alle Zielwerte wurde erreicht.