Leitthema des ersten Datacenter-Symposiums in der Landeshauptstadt von Baden-Württemberg lautete „Moderner Datacenter-Betrieb: Das eigene Rechenzentrum im Zusammenspiel mit Cloud, Hosting und Colocation“. Die ausbaufähige Teilnehmerzahl von rund 80 Besuchern wurde dem interessanten Programm nicht gerecht, machte aber deutlich, dass der Wechsel des Veranstaltungsorts wohl noch nicht bei den im Planungsprozess von Rechenzentren beteiligten Fachplanern oder auf Betreiberseite angekommen ist.
Über zwei Tage erörterten Experten abwechslungsreiche Inhalte und technische Themen, bei denen die Klima- und Lüftungstechnik einen Schwerpunkt bildete. Die wichtigsten Trends der zwei Tage:
Kältemittel
Die aktuelle Kältemittelsituation bereitet Planern und Betreibern weiter Kopfzerbrechen. H-FKWs wie R410A für kleinere Systeme oder Verbundanlagen mit semihermetischen oder Scrollverdichtern und R134a bei Schrauben- und Turbomaschinen sind einerseits nicht verboten, jedoch vom Phase-down der F-Gase-Verordnung betroffen, haben bislang aber keine unumstrittenen Nachfolger gefunden – egal ob HFOs oder natürliche Kältemittel.
Vorlauftemperaturen
Immer mehr Experten plädieren dafür, die Vorlauftemperaturen zur Kühlung von Rechenzentren anzuheben, bestenfalls mit Feuchtesensoren zur Kondensationsvermeidung und wenn immer möglich auch mit freier Kühlung. Hier liegen noch große Einsparpotenziale beim Energieverbrauch eines Rechenzentrums. Allerdings muss bei jeder Planung die RZ-Infrastruktur und die Ausfallsicherheit mit betrachtet werden.
Dezentralisierung
Die Standorte rücken für viele zeitkritische Anwendungen näher an den Ort der Datenverarbeitung heran, also weg von der Cloud, hin zu Edge-Rechenzentren. Der Hauptgrund ist vor allem die immer wichtiger werdende Echtzeitverarbeitung von Daten, wodurch sich Verzögerungen, sogenannte Latenzzeiten, verringern. Beispiele sind Produktionsprozesse, Leitsysteme oder das autonome Fahren.
All-in-one-Lösungen
Rechenzentren werden modular und immer kleiner. Containerlösungen und komplette Serverschränke mit integrierter Kühlung können vorgefertigt werden und für kleine und mittlere Unternehmen ein gangbarer Weg sein, die eigenen Daten nicht mehr aus der Hand zu geben, sondern im Haus zu halten. Kleine Systeme sind individuell, können dichter und energieeffizienter als große Standorte eines Colocators ausgeführt werden.
Quantencomputer
Großanbieter von RZ-Kapazitäten (führend sind heute Amazon, Google, Mircosoft, IBM) arbeiten an sogenannten Quantencomputern. Mit diesen Lösungen soll Rechenleistung und Kapazität auf kleinstem Raum konzentriert werden. Sie arbeiten bei Tiefsttemperaturen, werden zur Kühlung jedoch nur noch einen Bruchteil heutiger Energie benötigen. Mit der Markteinführung ist aber frühestens Ende des nächsten Jahrzehnts zu rechnen.
Direkte und indirekte Klimasysteme
Im Gegensatz zu früheren Veranstaltungen gab es in diesem Jahr keine Vorträge zur Rechenzentrumskühlung mit Luft und großen Klimazentralgräten oder dezentralen Lüftungsanlagen. Vielmehr wurden direkte und indirekte Klimasysteme besprochen, die den deutschen Markt dominieren. Dabei werden die Lösungen auf der Verdampferseite immer vielfältiger.
Ist der Wärmeübertrager direkt im Gerät oder an dessen Rückseite verbaut, geht es um sogenannte InRack-Klimasysteme. Stehen die Hochleistungsverdampfer hingegen zwischen den Racks, handelt es sich um eine InRow-
Klimatisierung. Beide Varianten verzichten auf einen Doppelboden. Wichtig bleibt, die Bereiche vor, hinter und über den Serverracks möglichst dicht in Kalt- oder Warmgänge voneinander zu entkoppeln. Nur dann kann energieeffizient und mit stabilen Sollwertvorgaben gearbeitet werden.
Einsetzbar sind in beiden Fällen Direktverdampfungssysteme. Leider fehlten in Stuttgart klare Positionierungen von Herstellern oder auch Planer-Visionen, mit welchem direkt verdampfenden Kältemittel man in die Zukunft gehen will.
Vielmehr war sogar für Neuanlagen weiterhin die Rede vom bisher verwendeten Kältemittel R410A. Tatsächlich wird der Einsatz von R410A nicht verboten. Zur Langzeitverfügbarkeit und Preisstabilität gab es aber keine Antworten. Der GWP-Wert von 2088 liegt aber in einer Höhe, die den Einsatz für Neuanlagen schnellstmöglich beenden und maximal auf Bestandserweiterungen oder den Service beschränken sollte – wenn man in der EU den F-Gase-Phase-down ohne Verwerfungen schaffen will. Jedoch fand keine der neuen Alternativen an HFO-Kältemitteln, die sehr niedrige GWP-Werte aufweisen, für den Rechenzentrumssektor uneingeschränkten Zuspruch.
Wasser als Kälteträger oder Kältemittel
Diskutiert wurde auch Wasser, entweder als Kälteträger oder direkt als Kältemittel. Tatsächlich spricht einiges dafür, Wasser im Vakuum zu verdampfen, um den thermodynamischen Phasenübergang zur Kühlung zu nutzen. Der Prozess ist inzwischen stabil beherrschbar, es gibt erste Langzeiterfahrungen – auch mit Rechenzentren –, alleine die hohen Investitionskosten und ein noch fehlendes Geräteangebot in der Breite scheinen den Durchbruch zu blockieren.
Wasser als Kälteträger kann hingegen mit einem Waterloop-System zur Rechenzentrumskühlung verwendet und der Verflüssiger außerhalb von Gefahrenzonen sogar mit Propan als Kältemittel an sicheren Aufstellorten platziert werden.
Eine „exotische“, aber sehr nachhaltige Lösung stellte die Schwarz-Gruppe zum Thema Wasser vor, zu der Handelsunternehmen wie Lidl oder Kaufland gehören. In Österreich fand man bei der Standortsuche für ein neues Rechenzentrum ein stillgelegtes Kohlekraftwerk, gelegen am Fluss Salzach. Von dort werden heute Handelsstandorte in Deutschland und Österreich versorgt.
Die Salzach bietet ganzjährig eine ausreichende Temperaturdifferenz. Über ein Entnahmebauwerk wird dem Fluss Wasser entnommen, mechanisch gereinigt und das Kühlpotenzial über einen Wärmeübertrager dem Rechenzentrum zugeführt. Der sekundäre Wasserkreislauf speist die Umluftkühler in den Serverräumen, alles ohne mechanische Kälteerzeugung.
Nur zur Sicherheit stehen NH3-Notkältemaschinen bereit. Bei maximalen Wassertemperaturen von 19 °C (im Juli 2018) – der Durchschnitt liegt bei 14 °C – werden diese voraussichtlich nur sehr selten benötigt. Wenngleich diese Lösung kein Standardfall ist, so zeigt sie, dass ein vorausschauender Planungsprozess inklusive Standortsuche für Großrechenzentren enorme ökonomische und auch ökologische Vorteile mit sich bringt.
Kleinst- und Mikrorechenzentren
Über eine gegenläufige Entwicklung berichteten gleich mehrere Referenten. Ging es bislang um die Cloud mit gigantischen Rechenzentren überall auf der Welt, benötigen immer mehr Anwendungen schnelle Reaktionszeiten. Dafür übernehmen zunehmend Edge-Rechenzentren die Datenverarbeitung. Edge meint dabei den Standort, als den Netzwerkrand. Nach und nach entsteht so eine dezentrale Struktur mit Knoten oder Erweiterungen in Großstädten, aber auch im ländlichen Raum (Bild 1) (Bild 2).
Darüber sind kürzeste Reaktionszeiten möglich, können Daten außerdem an mehreren Orten gesichert werden. Der Bedarf ist vielfältig. Ob für den Ausbau des 5G-Netzes, das Internet der Dinge (IoT) und Industrie 4.0 oder für die Zukunft des autonomen Fahrens. Dem Trend folgend bauen Hersteller normkonforme Kleinstrechenzentren in modularer Containerbauweise und bieten auch den Betrieb in Form von Contracting-Modellen an.
Ebenso gibt es bereits Mikrorechenzentren für die Innenaufstellung. Der Hinweis, dass die Integration im Gebäude allerdings nicht trivial ist, wurde schnell klar. Denn wird nicht schon im Planungsprozess daran gedacht, wird die Versorgung oder Absicherung des Rechenzentrums und ein Ausbau im Nachgang für einen unverhältnismäßigen Aufwand sorgen. Ein Mikrorechenzentrum ist kein Katalogprodukt, braucht also einen Planungsprozess und eine Spezifikation, ist zusammen mit dem Gebäude als System zu betrachten.
Die Zukunft der Datenverarbeitung
Der finale Ausblick in die Zukunft der Datenverarbeitung weckte unterschiedliche Emotionen bei den Kongressteilnehmern. Beim Thema Künstliche Intelligenz (KI) war zu spüren, dass neben dem großen Nutzen auch eine ethische Komponente mitschwingt. Maschinen arbeiten schon mit unzähligen Daten, auch persönlichen Informationen vorwiegend aus der Cloud. Diese werden benötigt, um immer „menschlicher“ zu entscheiden.
Ob dafür aber Grenzen der Privatsphäre überschritten werden (müssen) und ob Maschinen auch Empathie entwickeln sollen, uns vielleicht irgendwann überlegen sind, wurde von Referentenseite ausweichend beantwortet. Klar waren hingegen der Weg und das Ziel, die Jahr für Jahr schnell wachsenden Datenmengen, benötigte Speicherkapazitäten und Verarbeitungsgeschwindigkeiten irgendwie in den Griff zu bekommen: Mit Quantencomputern.
Daran arbeiten führende Cloud-Anbieter, wie Google, Microsoft und IBM, seit September 2019 in Kooperation mit der Fraunhofer-Gesellschaft mit Hochdruck. Dazu heißt es in einer gemeinsamen Stellungnahme: „Quantencomputing hat das Potenzial, die komplexen Systeme in Wirtschaft und Industrie zu analysieren, die Komplexität molekularer und chemischer Wechselwirkungen zu entflechten, komplizierte Optimierungsprobleme zu bewältigen und Künstliche Intelligenz deutlich leistungsfähiger zu machen. Solche Fortschritte könnten die Tür zu neuen wissenschaftlichen Erkenntnissen und enormen Verbesserungen in den Lieferketten, der Logistik und der Modellierung von Finanzdaten und Problemen aus den klassischen Ingenieurswissenschaften öffnen.“
Quantencomputer benötigen Temperaturen sehr nah am absoluten Nullpunkt (– 273,15 °C), ähnlich den besser bekannten Supraleitern. Sollte sich diese Entwicklung im Laufe des kommenden Jahrzehnts behaupten, würde sich die Infrastruktur von Rechenzentren komplett verändern und die heutige Standardklimatechnik weitgehend überflüssig. Mit dieser Aussicht endete die erste Veranstaltung in Stuttgart.
Cloud: Cloud Computing bezeichnet den Ansatz, IT-Ressourcen, wie Speicherplatz, Rechenleistung oder Anwendungssoftware, über das Internet als Dienstleistung zur Verfügung zu stellen. Hosting und Cloud-Anbieter betreiben die IT-Hardware selbst und übernehmen je nach Produkt mehr oder weniger auch den Betrieb der Anwendungen.
Colocation Rechenzentren: Rechenzentrum, in dem ein Anbieter seinen Kunden Rechenzentrumsfläche und Versorgungsinfrastruktur bereitstellt. Die IT-Geräte sind aber im Besitz des Kunden. Vgl. Housing.
Housing: Anderer Begriff für Colocation. Unter Housing bzw. Serverhousing versteht man die Unterbringung von Servern bei einem Dienstleister. Dieser stellt die Netzanbindung und in der Regel auch sichere Infrastruktur wie USV, Klimatisierung, Brandschutz, Bewachung etc. zur Verfügung.