Strukturierte Verkabelung vs. flüssigkeitsgekühlte Kabelkanäle: Planung für Racks mit 100 kW und mehr

Früher zählten Rechenzentren ihre Gewinne in Megawatt; heute prahlen sie mit Kilowatt pro Rack. Da die KI-Workloads zunehmen und die Rack-Dichte die 100-kW-Marke übersteigt, stehen die Einrichtungsteams vor einem neuen Balanceakt: Sie müssen dafür sorgen, dass die Daten durch einwandfreie Glasfaserkanäle fließen, während sie gleichzeitig die brennende Hitze schnell abführen. Der Einsatz ist greifbar - ein veraltetes Design bedeutet geröstete GPUs und steigende Energierechnungen - daher muss jeder Pfad, jede Leitung und jedes Patchpanel vom ersten Tag an seinen Beitrag leisten.

Die 100-kW-Schwelle

Moderne GPU-Shelves verbrauchen heute mehr als 100 kW pro Rack - eine elektrische Leistung, die früher kleinen Umspannwerken vorbehalten war.¹ Betreiber, die diese Dichte anstreben, müssen sowohl die Kabelanlage als auch das Kühlnetzwerk zur Infrastruktur erster Klasse machen. Wird eines der beiden Systeme vernachlässigt, mutiert der Premium-White-Space zu einem überdimensionierten Heizgerät statt zu einer produktiven Datenhalle.

Strukturierte Verkabelung: Die Grundlage für Zuverlässigkeit

Die strukturierte Verkabelung ordnet Kupfer- und Glasfaserstrecken in einer disziplinierten Hierarchie an und bietet drei entscheidende Vorteile:

-UngehinderterLuftstrom. Gebündelte Rohrleitungen schützen Unterflur- und Überkopfplenum, so dass CRAH-Geräte eine gleichmäßige Kaltluftzufuhr gewährleisten.

-Verkürztemittlere Reparaturzeit. Dank klar gekennzeichneter Anschlüsse und vorkonfektionierter Kassetten können Techniker ausgefallene Verbindungen innerhalb von Minuten isolieren und wiederherstellen.

-Signalintegrität. Kassetten mit hoher Dichte erzwingen einen korrekten Biegeradius und schützen 400 GbE-Optiken vor Mikrobiegeverlusten.²

Luftgekühlte Hallen mit einer Leistung von 100 kW oder mehr sind nur dann erfolgreich, wenn die Verkabelung den kritischen Luftstrom nicht blockiert.

Flüssigkeitsgekühlte Rohre: Direkte thermische Extraktion

Die Luftkühlung verliert ab etwa 50 kW pro Rack an Effizienz. Bei der Flüssigkeitskühlung - über Kühlplattenschleifen oder Tauchtanks - wird dem Chip Wärme entzogen und an externe Wärmetauscher weitergeleitet.

-Überlegene Wärmekapazität. Wasser transportiert Wärme bei gleichem Temperaturanstieg 3.500 mal effizienter pro Volumen ab als Luft.

-VerbesserteEnergieeffizienz. Durch die Senkung der Kühlmittelvorlauftemperaturen können die Betreiber die Sollwerte für die Kühlung anheben und den PUE-Wert in der Produktion um 10-20 Prozent senken.⁴

-Koordinierung der Leitungswege. Flüssigkeitsschläuche benötigen speziellen Platz in der Wanne, daher werden sie in der Planungsphase von den optischen Leitungen getrennt.

Vergleichende Performance-Highlights

-Wärmeabfuhr: Eine strukturierte Verkabelung fördert einen ungehinderten Luftstrom, während flüssigkeitsgekühlte Leitungen die Wärme direkt auf der Komponentenebene abführen.

-Wartung: Verkabelungsteams tauschen Kassetten aus und überprüfen Verbindungen in kürzester Zeit; Kühlungsspezialisten schließen trockene Schnellkupplungen an und führen Leckageprüfungen durch.

- Platzbedarf: Faserbündel bleiben kompakt; Kühlmittelschläuche benötigen einen größeren Durchmesser und einen größeren Biegeradius.

-Auswirkungen von Ausfällen: Ein einziger Faserbruch isoliert eine Verbindung; ein Kühlmittelleck kann zu einem breiteren Ausfall führen.

-Anforderungen: Für die Verkabelungsarbeiten sind Techniker für Niederspannungsnetze erforderlich, während für Flüssigkeitssysteme Experten für Mechanik und Flüssigkeitshandhabung benötigt werden.

Die meisten Hyperscale-Einrichtungen kombinieren beide Systeme: strukturierte Verkabelung transportiert Daten und Flüssigkeitsleitungen leiten Wärme ab.

Einführung in die Rapid-Deployment-Methodik von l'sIntrol

Die Außendienstteams von Introl haben über 100.000 GPUs installiert und mehr als 40.000 Meilen Glasfaserkabel in globalen KI-Clustern verlegt.⁵ Ein Team von 550 Ingenieuren ist innerhalb von 72 Stunden einsatzbereit, installiert 1.024 H100-Knoten und 35.000 Glasfaser-Patches in 14 Tagen und liefert vollständig instrumentierte Containment-Systeme termingerecht.⁶

Zu den wichtigsten Praktiken gehören:

1. Festgelegte Wege. Über Kopf liegende Wannen über heißen Gängen tragen Flüssigkeitsschläuche; geerdete Körbe unter dem Boden tragen Faserstämme.

2. Faser mit hoher Dichte. Vierundzwanzigstrangige MPO-Stämme minimieren die Bündelbreite und schaffen Platz für Kühlmittelverteiler.

3. Kurze Verteilerrohre. Verteiler auf Regalebene reduzieren die Schlauchlänge und schaffen isolierte Trockenpausenbereiche.

4. Fachübergreifende Ausbildung. Die Netzwerktechniker zertifizieren die Verfahren zur Handhabung von Flüssigkeiten, während die Mechaniker die Toleranzen für das Fasermanagement beherrschen.

Nachhaltigkeit und zukünftige Entwicklungen

Hybrid-Raceways bündeln jetzt abgeschirmte Faserkanäle mit zwei Flüssigkeitskreisläufen, was die Installation vereinfacht und Platz spart.⁷ Ingenieure des National Renewable Energy Laboratory fangen die Abwärme auf Rack-Ebene auf und speisen sie in Fernwärmenetze ein, um überschüssige Wärmeenergie in Gemeinschaftswärme umzuwandeln.⁸ Die kommende ASHRAE-Richtlinie erhöht die zulässigen Rack-Einlass-Temperaturen und ebnet den Weg für eine engere Integration von Luft- und Flüssigkeitskühlsystemen.⁹

Unsere Ingenieure testen jede neue Idee in unserem Pilotlabor auf Herz und Nieren. Nur die besten werden ausgewählt und in reale Projekte umgesetzt - egal, ob es sich um einen Neubau oder eine Nachrüstung einer älteren Halle handelt. Das Ergebnis kann sich sehen lassen: straffere Rack-Layouts, niedrigere Stromrechnungen und ein Gewinn an Nachhaltigkeit, auf den sowohl das Team vor Ort als auch die Führungskräfte stolz sein können.

Schlussfolgerungen

Strukturierte Verkabelung gewährleistet Datenintegrität und betriebliche Flexibilität, während flüssigkeitsgekühlte Leitungen für thermische Stabilität bei hoher Dichte sorgen. Einrichtungen, die beide Systeme bei der Planung berücksichtigen, erzielen eine vorhersehbare Leistung, einen optimierten Energieverbrauch und kürzere Bereitstellungsfristen. Sorgfältige Planung der Wege, disziplinierte Installation und funktionsübergreifendes Fachwissen verwandeln 100-kW-Racks von einem ehrgeizigen Konzept in eine verlässliche Realität.

Referenzen (Chicago Autor-Datum)

1) Uptime Institute. Global Data Center Survey 2024: Keynote Report 146M. New York: Uptime Institute, 2024.

2) Cisco Systems. Best Practices der Glasfaserverkabelung für 400-G-Rechenzentren. San José, CA: Cisco White Paper, 2023.

3 American Society of Heating, Refrigerating and Air-Conditioning Engineers. Thermal Guidelines for Data Processing Environments, 6. Atlanta: ASHRAE, 2022.

4. das Lawrence Berkeley National Laboratory. Gemessene PUE-Einsparungen in flüssigkeitsgekühlten AI-Anlagen. Berkeley, CA: LBNL, 2024.

5. introl. "Beschleunigen Sie die Zukunft der KI mit Introl Managed GPU Deployments." Accessed June 26, 2025. https://introl.com/.

6. einleitung. "Frankfurt Case Study". Zugriff am 26. Juni 2025. https://introl.com/case-studies/frankfurt.

7. das Open Compute Project. Erweiterte Kühlungslösungen: 2025 Spezifikations-Entwurf. San José, CA: OCP-Stiftung, 2025.

8 Huang, Wei. "Wärmerückgewinnung auf Rack-Ebene in flüssigkeitsgekühlten KI-Clustern". Journal of Sustainable Computing 12, no. 3 (2024): 45-58.

9 ASHRAE. Proposed Addendum C to Thermal Guidelines, Entwurf zur öffentlichen Überprüfung, Januar 2025.

Vorherige
Vorherige

Der Bau von Rechenzentren unter dem Aspekt der Nachhaltigkeit: Was funktioniert

Weiter
Weiter

Warum der NVIDIA GB300 NVL72 (Blackwell Ultra) wichtig ist 🤔