Flüssigkeitskühlung vs. Luft: Der 50kW-GPU-Rack-Leitfaden (2025)
Das exponentielle Wachstum von KI-Workloads hat die Kühlung von Rechenzentren an einen kritischen Wendepunkt gebracht. Da die Dichte der GPU-Racks auf über 50 kW ansteigt - die Systeme der nächsten Generation benötigen 100 kW und mehr - stößt die herkömmliche Luftkühlung an ihre grundlegenden physikalischen Grenzen. Diese umfassende Analyse zeigt, wie die Branche diesen thermischen Wandel durch fortschrittliche Flüssigkeitskühlungstechnologien bewältigt, die Energieeinsparungen von 10-21 % und eine Senkung der Kühlkosten um 40 % ermöglichen und die für die KI-Revolution erforderliche Infrastruktur schaffen.
Wenn die Luft zum Engpass wird
Das Scheitern der Luftkühlung bei hohen Dichten ist nicht allmählich - es ist eine Klippe. Bei 50 kW pro Rack wird die Physik unerbittlich: Die Kühlung erfordert einen Luftstrom von 7.850 Kubikfuß pro Minute (CFM) bei einem Temperaturunterschied von 20°F. Bei einer Verdoppelung auf 100 kW sind 15.700 CFM erforderlich - und damit Winde in Orkanstärke durch Servereinlässe von nur 2 bis 4 Quadratzoll. Die grundlegende Gleichung für die Wärmeabfuhr (Q = 0,318 × CFM × ΔT) offenbart eine unüberwindbare Herausforderung: Mit zunehmender Dichte steigt der erforderliche Luftstrom linear an, aber der Stromverbrauch der Lüfter steigt mit der dritten Potenz der Lüftergeschwindigkeit. Eine Steigerung des Luftstroms um 10 % erfordert 33 % mehr Lüfterleistung, wodurch eine Energieverbrauchsspirale entsteht, die eine Luftkühlung mit hoher Dichte wirtschaftlich und praktisch unmöglich macht.
Die reale Welt bestätigt diese theoretischen Grenzen. Ein dokumentierter Fall zeigte, dass 250 Racks mit nur 6 kW bei einem Ausfall der Kühlung innerhalb von 75 Sekunden von 72°F auf über 90°F ansteigen. Herkömmliche Rechenzentren, die für eine durchschnittliche Rack-Dichte von 5-10 kW ausgelegt sind, können moderne GPU-Workloads einfach nicht bewältigen. Selbst mit einer fortschrittlichen Warm-/Kaltgangeinhausung hat die Luftkühlung Probleme jenseits von 40 kW, während nicht eingehauste Systeme 20-40 % Kapazitätsverluste durch Warmluftrückführung erleiden. Die neue ASHRAE H1-Umgebungsklasse, die speziell für Geräte mit hoher Dichte entwickelt wurde, beschränkt die zulässigen Temperaturen auf 18-22 °C - ein Bereich, der mit Luftkühlung in GPU-Größenordnungen unmöglich zu halten ist.
Flüssigkühlungstechnologien verändern die Möglichkeiten.
Der Übergang zur Flüssigkeitskühlung ist mehr als eine schrittweise Verbesserung - es ist eine grundlegende Neukonzeption der Wärmeabfuhr. Der Wärmeübertragungskoeffizient von Wasser ist 3.500-mal größer als der von Luft und ermöglicht Kühlkapazitäten, die 100 kW+ Racks zur Routine werden lassen, anstatt bemerkenswert zu sein.
Die Kühlung direkt auf dem Chip führt den Wandel an, wobei Kühlplatten mit Mikrokanälen (27-100 Mikrometer) direkt an den Prozessoren angebracht werden. Diese Systeme, die mit einer Wasserzufuhr von 40 °C und einer Rücklauftemperatur von 50 °C arbeiten, leiten 70-75 % der Rack-Wärme durch Flüssigkeit ab und halten dabei eine PUE von 1,02-1,03 ein. Moderne Implementierungen unterstützen 1,5 kW+ pro Chip mit Durchflussraten von 13 Litern pro Minute für einen 9 kW-Server. Die verbleibenden 25-30 % der Wärme - von Speicher, Laufwerken und Hilfskomponenten - müssen weiterhin mit Luft gekühlt werden, was diese Hybridsysteme zur praktischen Wahl für die meisten Implementierungen macht.
Die Eintauchkühlung geht noch weiter und taucht ganze Server in dielektrische Flüssigkeiten ein. Einphasige Systeme, die Mineralöle verwenden, kosten 50-100 US-Dollar pro Gallone und unterstützen durchweg 200 kW pro Rack. Zweiphasige Systeme versprechen eine bessere Wärmeübertragung durch Sieden und Kondensation, stehen aber vor Herausforderungen: Fluorkohlenwasserstoff-Flüssigkeiten kosten 500-1000 Dollar pro Liter, und die Einstellung der Produktion durch 3M bis 2025 aufgrund von Umweltbedenken hat die Akzeptanz eingefroren. Die Komplexität der Technologie - abgedichtete Gehäuse, Kavitationsrisiken und PFAS-Vorschriften - beschränkt den Einsatz auf spezielle Anwendungen.
Kühlmittelverteiler (Coolant Distribution Units, CDUs) bilden das Rückgrat der Infrastruktur für die Flüssigkeitskühlung. Moderne Einheiten reichen von 7-kW-Systemen zur Rackmontage bis hin zu 2.000-kW+-Giganten wie dem CHx2000 von CoolIT. Führende Anbieter wie Vertiv, Schneider Electric, Motivair und CoolIT bieten Lösungen mit N+1-Redundanz, 50-Mikron-Filterung und variablen Frequenzantrieben zur Lastanpassung. Der CDU-Markt, der im Jahr 2024 auf 1 Milliarde Dollar geschätzt wurde, wird bis 2031 voraussichtlich 3,6 Milliarden Dollar erreichen (20,5 % CAGR), was die rasche Akzeptanz der Flüssigkeitskühlung widerspiegelt.
Die Kunst und die Wirtschaftlichkeit der Nachrüstung
Die Umstellung bestehender Rechenzentren auf Flüssigkeitskühlung muss sorgfältig geplant werden. Der erfolgreichste Ansatz ist eine schrittweise Migration: Man beginnt mit 1-2 Racks mit hoher Dichte, erweitert auf eine Reihe und skaliert dann je nach Bedarf. Es haben sich drei primäre Nachrüstungspfade herauskristallisiert: Flüssigkeit-zu-Luft-CDUs, die die vorhandene Klimaanlage nutzen, Wärmetauscher an der Rückseite, die bis zu 40 kW pro Rack kühlen können, und Direct-to-Chip-Lösungen für maximale Effizienz.
Änderungen der Infrastruktur stellen die größte Herausforderung dar. Die Stromversorgungsinfrastruktur wird oft zum begrenzenden Faktor - Einrichtungen, die für eine durchschnittliche Last von 5-10 kW ausgelegt sind, können unabhängig von der Kühlleistung keine Racks mit 50 kW und mehr unterstützen. Die Sanitärinstallation erfordert eine sorgfältige CFD-Modellierung in Umgebungen mit erhöhtem Boden oder eine Überkopfinstallation mit Auffangwannen in Plattenbauten. Die Bodenbelastung, insbesondere bei Eintauchsystemen, kann die strukturelle Kapazität in älteren Einrichtungen übersteigen.
Die Kostenanalyse zeigt, dass die Wirtschaftlichkeit trotz hoher Anfangsinvestitionen überzeugend ist. Eine Studie der kalifornischen Energiekommission dokumentierte ein komplettes Flüssigkeitskühlsystem für 1.200 Server in 17 Racks zu Gesamtkosten von 470.557 $ bzw. 392 $ pro Server, einschließlich Änderungen an der Anlage. Jährliche Energieeinsparungen von 355 MWh (39.155 $ bei 0,11 $/kWh) ergeben eine einfache Amortisation von 12 Jahren, obwohl optimierte Implementierungen eine Amortisation von 2-5 Jahren erreichen. Die Analyse von Schneider Electric zeigt 14 % Kapitaleinsparungen durch die vierfache Rack-Verdichtung, während die betrieblichen Einsparungen eine Reduzierung des Gesamtstromverbrauchs im Rechenzentrum um 10,2 % und eine Verbesserung der Gesamtnutzungseffizienz um 15,5 % umfassen.
Die Herausforderungen der Integration vervielfachen sich in hybriden Umgebungen. Selbst "vollständig flüssigkeitsgekühlte" Anlagen benötigen 20-30 % Luftkühlkapazität für Hilfskomponenten. Steuersysteme müssen mehrere Kühltechnologien koordinieren und sowohl die Einlasstemperaturen der Racks als auch die Bedingungen des Versorgungswassers überwachen. Redundanz ist von entscheidender Bedeutung - Wärmetauscher an der Hintertür müssen auf Luftkühlung umschalten, wenn sie zu Wartungszwecken geöffnet werden, während Direct-to-Chip-Systeme bei Volllast eine Durchlaufzeit von weniger als 10 Sekunden haben.
Vom Piloten zur Produktion
Reale Einsätze zeigen die Reife der Flüssigkeitskühlung. Meta ist führend bei der Einführung in großem Maßstab und implementiert luftunterstützte Flüssigkeitskühlung auf über 40 Millionen Quadratmetern Rechenzentrumsfläche. Ihr Catalina-Rackdesign unterstützt 140 kW mit 72 GPUs, während die gebäudeweite Einführung der Flüssigkeitskühlung bis Anfang 2025 abgeschlossen sein soll. Die Umstellung erforderte die Verschrottung mehrerer im Bau befindlicher Rechenzentren zugunsten einer KI-optimierten Neugestaltung, wobei man sich von der neuen Architektur Kosteneinsparungen von 31 % verspricht.
Googles siebenjährige Erfahrung mit flüssigkeitsgekühlten TPUs liefert den umfassendsten Datensatz der Branche. Durch den Einsatz von Closed-Loop-Systemen mit mehr als 2000 TPU-Pods im Gigawatt-Maßstab haben sie eine Betriebszeit von 99,999 % erreicht und gleichzeitig eine 30-mal höhere Wärmeleitfähigkeit als Luft nachgewiesen. Ihr CDU-Design der fünften Generation, Project Deschutes, wird in das Open Compute Project eingebracht, um die branchenweite Einführung zu beschleunigen.
Microsoft setzt mit der Zweiphasen-Tauchkühlung in der Produktion neue Maßstäbe. Dabei werden dielektrische Flüssigkeiten verwendet, die bei 50 °C weniger als Wasser sieden. Die Technologie ermöglicht eine Reduzierung des Serverstroms um 5-15 % bei gleichzeitigem Wegfall der Lüfter. Die Verpflichtung, den Wasserverbrauch bis 2024 um 95 % zu reduzieren, treibt die Innovation von Systemen mit geschlossenem Kreislauf und ohne Verdunstung voran.
Spezialisierte Anbieter wie CoreWeave demonstrieren Flüssigkeitskühlung für KI-Workloads. Sie planen 4.000 GPU-Bereitstellungen bis Ende 2024 und erreichen eine Rack-Dichte von 130 kW mit einer 20 % besseren Systemauslastung als die Konkurrenz. Ihre schienenoptimierten Designs sparen 3,1 Millionen GPU-Stunden durch verbesserte Zuverlässigkeit und stellen H100-Cluster in weniger als 60 Tagen bereit.
Erfüllung der thermischen Anforderungen von KI-Beschleunigern
Die GPU-Spezifikationen verdeutlichen, warum Flüssigkeitskühlung zur Pflicht geworden ist. Die NVIDIA H100 SXM5 arbeitet mit 700 W TDP und benötigt für eine optimale Leistung eine Flüssigkeitskühlung. Die H200 behält den gleichen Leistungsumfang bei, bietet aber 141 GB HBM3e-Speicher mit 4,8 TB/s - eine 1,4-fach höhere Bandbreite, die eine proportionale Wärmeentwicklung zur Folge hat. Der kommende B200 verschiebt die Grenzen noch weiter: 1.200 W für flüssigkeitsgekühlte Varianten gegenüber 1.000 W für luftgekühlte, mit 20 PFLOPS FP4-Leistung, die ein ausgeklügeltes Wärmemanagement erfordert.
Der GB200 NVL72, der72 Blackwell-Grafikprozessoren und 36 Grace-CPUs in einem einzigen Rack unterbringt, stellt den Endpunkt der Machbarkeit von Luftkühlung dar. Bei einer Rack-Leistung von 140 kW ist eine Flüssigkeitskühlung durch neu entwickelte Kühlplatten und 250-kW-CDs erforderlich. Überlegungen auf Systemebene erhöhen die Komplexität: NVSwitch-Verbindungen fügen jeweils 10-15 W hinzu, während Hochgeschwindigkeitsspeicher und Stromversorgungssysteme erhebliche zusätzliche Wärme erzeugen.
Die technische Analyse von JetCool zeigt deutliche Leistungsunterschiede: Die H100 SmartPlate erreicht einen Wärmewiderstand von 0,021 °C/W. Damit sind die Chips 35 °C kühler als Luft-Alternativen, während sie 60 °C Einlasstemperaturen unterstützen. Diese Temperaturreduzierung verlängert theoretisch die Lebensdauer des Grafikprozessors um das 8-fache und ermöglicht eine anhaltende Höchstleistung - entscheidend für mehrwöchige KI-Trainingsläufe.
Der Fahrplan bis 2030
Die Branche befindet sich an einem Wendepunkt, an dem sich bewährte Verfahren rasch zu Anforderungen entwickeln. Die neue ASHRAE-Umgebungsklasse H1 (18-22 °C empfohlen) erkennt an, dass herkömmliche Richtlinien nicht für KI-Arbeitslasten geeignet sind. Die Flüssigkühlungsstandards des Open Compute Project fördern die Interoperabilität, während die Immersion Requirements Rev. 2.10 Qualifizierungsprozesse für neue Technologien festlegen.
Die Zweiphasen-Tauchkühlung ist trotz der derzeitigen Herausforderungen vielversprechend für die Einführung in den Jahren 2025-2027. Marktprognosen gehen von einem Wachstum von 375 Mio. $ (2024) auf 1,2 Mrd. $ (2032) aus, angetrieben durch eine überlegene Wärmeübertragung, die 1.500 W+ pro Chip ermöglicht. Innovationen wie Accelsius NeuCool und Alternativen zu den auslaufenden 3M-Flüssigkeiten tragen den Umweltbedenken Rechnung und erhalten gleichzeitig die Leistung.
KI-gesteuerte Optimierung liefert sofortige Ergebnisse. Die Implementierung von Google DeepMind hat durch Echtzeit-Lernen eine Reduzierung der Kühlenergie um 40 % erreicht, während die White Space Cooling Optimization von Siemens und ähnliche Plattformen immer mehr Verbreitung finden. Diese Systeme sagen Ausfälle voraus, optimieren die Kühlmittelchemie und passen sich dynamisch an Arbeitslastmuster an - Fähigkeiten, von denen 91 % der Anbieter erwarten, dass sie innerhalb von fünf Jahren allgegenwärtig sein werden.
Abwärmerückgewinnung verwandelt eine Belastung in einen Vorteil. Stockholm Data Parks beheizt bereits 10.000 Haushalte mit Abwärme aus Rechenzentren und strebt bis 2035 einen Anteil von 10 % an der Stadtheizung an. Gesetzlicher Druck beschleunigt die Einführung: Deutschland schreibt eine 20-prozentige Wärmerückgewinnung bis 2028 vor, während Kalifornien nach Title 24 eine Rückgewinnungsinfrastruktur für Neubauten fordert. Die Wärmepumpentechnologie hebt 30-40 °C warme Abwärme auf 70-80 °C für die Fernwärmeversorgung an und schafft so Einnahmequellen für zuvor weggeworfene Energie.
Den Übergang schaffen
Der erfolgreiche Einsatz von Flüssigkeitskühlung erfordert eine strategische Planung über mehrere Dimensionen hinweg. Unternehmen sollten mit einfachen Flüssigkeits-zu-Luft-Kühlsystemen beginnen, um die Einstiegshürde zu senken, müssenaber zunächst die Stromversorgungsinfrastruktur bewerten - unzureichendeStromkapazitäten disqualifizieren die Machbarkeit von Nachrüstungen unabhängig von der Kühltechnologie. Der Beginn mit 1-2 Rack-Piloten ermöglicht einen Lernprozess vor der Skalierung, während die Beibehaltung von Fachwissen über Luftkühlung für den Hybridbetrieb entscheidend ist.
Bei der Finanzmodellierung muss der Gesamtwert des Systems berücksichtigt werden. Während die anfänglichen Investitionen zwischen 1.000 und 2.000 US-Dollar pro kW Kühlkapazität liegen, summieren sich die betrieblichen Einsparungen: 27 % weniger Stromverbrauch in der Anlage bei optimierten Implementierungen, 30 % Energieeinsparungen bei der Kühlung im Vergleich zu herkömmlichen Systemen und vor allem die Möglichkeit, umsatzsteigernde KI-Workloads einzusetzen, was bei Luftkühlung unmöglich ist. Führende Implementierungen erreichen durch sorgfältiges Design eine Amortisationszeit von unter 2 Jahren: Durch die Umgehung ineffizienter Kühlerintegration werden 20-30 % eingespart, während die Konzentration auf die Anwendungen mit der höchsten Dichte die Rendite maximiert.
Technische Teams benötigen neue Kompetenzen. Neben dem traditionellen HLK-Wissen müssen sich die Mitarbeiter mit der Kühlmittelchemie, Leckageprotokollen und integrierten Kontrollsystemen auskennen. Partnerschaften mit Lieferanten erweisen sich als unerlässlich: 24-Stunden-Support für spezielle Komponenten und regelmäßige vorbeugende Wartung in 6-monatigen Abständen werden zu betrieblichen Notwendigkeiten. Die Sicherheitsprotokolle werden um den Umgang mit dielektrischen Flüssigkeiten und das Management von Drucksystemen erweitert.
Der Markt signalisiert eine überwältigende Dynamik. Flüssigkühlung für Rechenzentren wächst von 4,9 Mrd. USD (2024) auf voraussichtlich 21,3 Mrd. USD (2030) mit einer durchschnittlichen Wachstumsrate von 27,6 %. Einphasige Direct-to-Chip-Kühlung wird bis 2025-2026 zum Standard für KI-Workloads, während zweiphasige Immersion bis 2027 zum Mainstream wird. Bis 2030 werden 1-MW-Racks standardmäßig eine fortschrittliche Flüssigkeitskühlung erfordern und keine Ausnahme darstellen.
Schlussfolgerung
Die Physik ist eindeutig: Die Luftkühlung hat ihre Grenzen erreicht. Bei Rack-Dichten von 50-100 kW ist die Flüssigkeitskühlung aufgrund grundlegender thermodynamischer Zwänge nicht nur vorzuziehen, sondern zwingend erforderlich. Die Umstellung stellt die bedeutendste Infrastrukturveränderung in der Geschichte der Rechenzentren dar und erfordert neue Fähigkeiten, erhebliche Investitionen und betriebliche Veränderungen. Doch die Vorteile - 10-21 % Energieeinsparungen, 40 % geringere Kühlkosten, 8-fache Verbesserung der Zuverlässigkeit und vor allem die Möglichkeit, die KI-Infrastruktur der nächsten Generation einzusetzen - machen diese Entwicklung unumgänglich. Unternehmen, die die Flüssigkeitskühlung heute beherrschen, werden die KI-Durchbrüche von morgen vorantreiben - diejenigen, die zögern, geraten ins Hintertreffen, während die Branche auf immer höhere Rechendichten zusteuert. Wir haben die thermische Wand erreicht; Flüssigkeitskühlung ist der Weg, wie wir sie durchbrechen.
Referenzen
ACM Digital Library. "Energieeffizientes LLM-Training in GPU-Rechenzentren mit Immersionskühlungssystemen". Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Vergleich von NVIDIA Blackwell-Konfigurationen". 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
---. "Die 5 wichtigsten Überlegungen für den Einsatz von NVIDIA Blackwell". 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: HPC mit Warmwasserkühlung und Energiewiederverwendung." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887..
---. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077..
Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend". Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/..
Chilldyne. "Hochleistungs-Flüssigkeitskühlungsdesign: Anforderungen an eine Direct-to-Chip-Lösung für 500-kW-Racks". Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Kompass Rechenzentren. "Was ist die Kühlung von Rechenzentren?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta skizziert KI-Infrastruktur-Upgrades auf dem OCP Summit 2024". 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Umfassender Leitfaden zur Flüssigkeitskühlung: Die Zukunft von Hochleistungsrechenzentren und KI-Implementierungen". 2025. https://www.corewinner.com/en/blog/detail/52..
CoreWeave. "Building AI Clusters for Enterprises 2025". 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
---. "GPUs für KI-Modelle und Innovation". 2025. https://www.coreweave.com/products/gpu-compute..
Cyber Defense Advisors. "KI-gesteuerte vorausschauende Wartung: The Future of Data Center Reliability". 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Datenzentrum-Katalog. "Meta plant Umstellung auf Flüssigkeitskühlung für seine Rechenzentrumsinfrastruktur". 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Rechenzentrum-Dynamik. "Eine Einführung in die Flüssigkeitskühlung im Rechenzentrum". 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
---. "Hyperscaler bereiten sich auf der OCP EMEA auf 1-MW-Racks vor; Google kündigt neue CDU an". 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
---. "Neue ASHRAE-Richtlinien fordern Effizienzsteigerung heraus". 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
---. "Nvidias CEO bestätigt, dass das kommende System flüssigkeitsgekühlt sein wird." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
---. "Optimierung der Effizienz von Rechenzentren mit Direct-to-Chip-Flüssigkeitskühlung". 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
---. "Zweiphasenkühlung wird von EPA-Vorschriften und dem Ausstieg von 3M aus PFAS-'forever chemicals' betroffen sein". 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/..
Data Center Frontier. "8 Trends, die die Rechenzentrumsbranche im Jahr 2025 prägen werden". 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
---. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center". 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center..
---. "Google entwickelt neue 'klimabewusste' Kühltechnik, um Wasser zu sparen." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
---. "Google stellt für KI-Datenverarbeitung auf Flüssigkeitskühlung um." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
---. "Meta plant Umstellung auf Flüssigkeitskühlung für seine Rechenzentrumsinfrastruktur". 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
---. "Meta Previews New Data Center Design for an AI-Powered Future". 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future ..
---. "OCP 2024 im Blickpunkt: Meta stellt 140 kW flüssigkeitsgekühltes KI-Rack vor; Google setzt auf Roboter, um Hyperscaler-GPUs zu beschleunigen." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
---. "Die Grenzen der Luftkühlung in Umgebungen mit hoher Bevölkerungsdichte verschieben". 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
---. "Bericht: Meta plant Umstellung auf Flüssigkeitskühlung bei der Neugestaltung von KI-zentrierten Rechenzentren." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
---. "Die Bedeutung der Flüssigkeitskühlung für das Open Compute Project (OCP)". 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp..
---. "Abwärmenutzung ist der nächste Schritt der Rechenzentrumsbranche in Richtung Netto-Null-Energie." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy..
---. "ZutaCores HyperCool-Flüssigkeitskühltechnologie unterstützt NVIDIAs fortschrittliche H100- und H200-GPUs für nachhaltige KI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai..
Rechenzentrum-Wissen. "Strategien für die Nachrüstung von Rechenzentren". 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
---. "Hybridkühlung: The Bridge to Full Liquid Cooling in Data Centers". 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Data Centre Review. "Das Beste aus der Abwärme von Rechenzentren machen". Juni 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Rechenzentren. "Die Rolle von CoreWeave in der Cloud-Partnerschaft von Google und OpenAI definiert die KI-Infrastruktur neu." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration..
Dell. "Wann Sie in Ihrem Rechenzentrum von Luftkühlung auf Flüssigkeitskühlung umsteigen sollten". 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digitales Infra-Netzwerk. "Googles Megawatt-Zug für KI: Erneuerung von Strom und Kühlung". 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/..
Enconnex. "Flüssigkühlung im Rechenzentrum vs. Luftkühlung". 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Technik bei Meta. "Metas offene KI-Hardware-Vision". 15. Oktober 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032". 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Ermöglichung von 1-MW-IT-Racks und Flüssigkeitskühlung auf dem OCP EMEA Summit". Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit..
GR-Kühlung. "Erforschung der fortschrittlichen Flüssigkeitskühlung: Immersion vs. Direct-to-Chip Cooling". 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
---. "Zweiphasige versus einphasige Eintauchkühlung". 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Direct-To-Chip-Flüssigkeitskühlung". 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Hybridräume: die kombinierte Lösung für Luft- und Flüssigkeitskühlung in Rechenzentren". 2025. https://hiref.com/news/hybrid-rooms-data-centers..
HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware mit H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Wärmemanagement für Rechenzentren 2025-2035: Technologien, Märkte und Möglichkeiten". 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Direkte Flüssigkeitskühlung vs. Eintauchkühlung für Rechenzentren". 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
---. "Flüssigkeitskühlsystem für NVIDIA H100 GPU". 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html ..
Microsoft. "Projekt Natick Phase 2". 2025. https://natick.research.microsoft.com/.
Microsoft Nachrichten. "Um Server im Rechenzentrum zu kühlen, setzt Microsoft auf kochende Flüssigkeit". 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Nortek Kühlungslösungen für Rechenzentren. "Abwärmenutzung ist der nächste Schritt der Rechenzentrumsbranche in Richtung Netto-Null-Energie." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 Tensor Core GPU". 2025. https://www.nvidia.com/en-us/data-center/h200/..
Open Compute Project. "Open Compute Project Foundation erweitert seine Open Systems for AI Initiative". 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative..
P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032". 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro stellt Rack Scale Plug-and-Play flüssigkeitsgekühlte AI SuperClusters für NVIDIA Blackwell und NVIDIA HGX H100/H200 vor." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html ..
---. "ZutaCores HyperCool-Flüssigkeitskühltechnologie unterstützt NVIDIAs fortschrittliche H100- und H200-GPUs für nachhaltige KI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html..
Rittal. "Was ist Direct to Chip Cooling - und gehört der Flüssigkeitskühlung die Zukunft?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future ..
ScienceDirect. "Flüssigkeitskühlung von Rechenzentren: Eine Notwendigkeit angesichts der Herausforderungen". 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804..
SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems". October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
---. "Anatomie des Rechenzentrums Teil 2 - Kühlsysteme". Februar 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
---. "Multi-Datacenter-Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs". TechPowerUp GPU-Datenbank. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899..
TechTarget. "Flüssigkeitskühlung vs. Luftkühlung im Rechenzentrum". 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "Wie führende LLM-Entwickler den Boom der Flüssigkeitskühlung anheizen". 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologien. "Wie Rack-Dichte und Delta T Ihre Luftstrommanagement-Strategie beeinflussen". 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
---. "Wann das Rechenzentrum für KI nachgerüstet werden sollte und wann nicht." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/..
Uptime Institute. "Best Practices für die Kühlung von Rechenzentren". 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
---. "Leistungserwartungen an die Flüssigkeitskühlung brauchen einen Realitätscheck". Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/..
Utility Dive. "Die Aussichten für die Kühlung von Rechenzentren im Jahr 2025". 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Einsatz von Flüssigkeitskühlung in Rechenzentren: Installation und Verwaltung von Kühlmittelverteilungseinheiten (CDUs)". 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
---. "Flüssigkeits- und Eintauchkühlungsoptionen für Rechenzentren". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
---. "Flüssigkühlungsoptionen für Rechenzentren". 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/..
---. "Quantifizierung der Auswirkungen auf PUE und Energieverbrauch bei Einführung von Flüssigkeitskühlung in einem luftgekühlten Rechenzentrum". 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
---. "Verständnis der Direktkühlung in HPC-Infrastrukturen: Ein tiefer Einblick in die Flüssigkeitskühlung". 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
---. "Vertiv™ CoolPhase CDU | High Density Solutions". 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/..
WGI. "Cooling Down AI and Data Centers". 2025. https://wginc.com/cooling-down-ai-and-data-centers/.