CoreWeave: Die KI-Infrastruktur-Revolution - Wie ein Krypto-Mining-Startup zum 23-Milliarden-Dollar-Backbone der Künstlichen Intelligenz wurde

CoreWeave hat sich vom Kryptowährungs-Mining zum weltweit spezialisiertesten Anbieter von KI-Cloud-Infrastrukturen entwickelt. Das Unternehmen betreibt GPU-Supercomputer in noch nie dagewesenem Umfang und leistet Pionierarbeit bei der Flüssigkeitskühlung und Bare-Metal-Architekturen, die es von herkömmlichen Hyperscalern unterscheiden. Der Wandel des Unternehmens vom Mining von Ethereum im Jahr 2017 zum Betrieb der GPT-Modelle von OpenAI stellt den dramatischsten Pivot des Silicon Valley dar, der durch eine Fremdfinanzierung in Höhe von 7,5 Mrd. USD bei einer Bewertung von 19 Mrd. USD (Mai 2024), gefolgt von einem Sekundärverkauf in Höhe von 23 Mrd. USD (Oktober 2024), ein explosives Umsatzwachstum von 737 % im Jahr 2024 und eine Einstufung in die Spitzengruppe des neuen ClusterMAX-Frameworks von SemiAnalysis bestätigt wurde . Der Bericht hebt CoreWeaves Tenant Isolation, Bare-Metal-Kubernetes und Ops-Reife hervor.

Der technische Graben, den CoreWeave aufgebaut hat, nutzt eine spezielle Architektur, die ausschließlich für beschleunigtes Computing optimiert ist. Während traditionelle Cloud-Anbieter Allzweck-Workloads mit GPU-Computing ausgleichen, hat CoreWeave jede Schicht seines Stacks speziell für KI- und HPC-Anwendungen entwickelt. Die Bare-Metal-Kubernetes-Architektur eliminiert den Virtualisierungs-Overhead vollständig, während die Direct-to-Chip-Flüssigkeitskühlung eine Rack-Dichte von 130 Kilowatt ermöglicht, die luftgekühlte Einrichtungen nicht erreichen können. Dieser fundamentale architektonische Vorteil, kombiniert mit Topologie-bewusstem Scheduling und InfiniBand-first Networking, führt laut CoreWeave zu einer Modell-FLOPS-Auslastung von mehr als 50 % auf GPUs der Hopper-Klasse - etwa 20 % höher als die öffentlichen Foundation Model Baselines gemäß den internen Benchmarks.

Die symbiotische Beziehung des Unternehmens zu NVIDIA geht über typische Anbieterpartnerschaften hinaus: NVIDIA hält seit März 2025 einen Anteil von rund 6 % und wählt CoreWeave immer wieder für die Ersteinführung bahnbrechender Architekturen aus. CoreWeave war der erste Anbieter von GB200 NVL72-Systemen (Februar 2025) und der erste Anbieter von GB300 NVL72-Systemen (3. Juli 2025). Der GB300-Einsatz verspricht laut NVIDIA eine bis zu 50-fache Verbesserung der Inferenzleistung von Reasoning-Modellen", obwohl es sich hierbei eher um Hersteller-Marketing als um von Experten geprüfte Benchmarks handelt. (NVIDIAs Marketing-Anleitung; unabhängige Benchmarking-Tests stehen noch aus.)

Die Finanzkennzahlen unterstreichen die massive Marktnachfrage nach spezialisierter KI-Infrastruktur: CoreWeave erzielte einen Quartalsumsatz von 1,21 Mrd. US-Dollar (Q2 2025), verfügt über einen Auftragsbestand von 30,1 Mrd. US-Dollar und sicherte sich die Zusagen von Microsoft (62 % des Umsatzes im Jahr 2024), OpenAI (Vertrag im Wert von bis zu 11,9 Mrd. US-Dollar plus 4 Mrd. US-Dollar Erweiterung) und anderen führenden KI-Anbietern, die optimierte Leistungsniveaus für groß angelegte Trainings und Inferenzen benötigen. Der Börsengang im März 2025 zu einem Preis von 40 US-Dollar pro Aktie erbrachte einen Erlös von rund 1,5 Milliarden US-Dollar und etablierte CoreWeave als börsennotiertes Unternehmen, das in der Lage ist, den Wert zu steigern, wenn die weltweite Nachfrage nach KI-Rechnern zunimmt.

Doch hinter diesem explosiven Wachstum verbirgt sich ein beträchtliches Ausführungsrisiko: CoreWeave ist mit mehr als 11 Milliarden US-Dollar verschuldet und hatte in Q2'25 einen Zinsaufwand von 267 Millionen US-Dollar (gegenüber 67 Millionen US-Dollar in Q2'24), was eine jährliche Run-Rate von mehr als 1 Milliarde US-Dollar bedeutet, wenn die Bilanz skaliert. Diese Kapitalstruktur erfordert eine einwandfreie Ausführung, da das Unternehmen die Infrastruktur vor der Hyperscaler-Konkurrenz bereitstellen muss. Die extreme Kundenkonzentration, wobei Microsoft 62 % des Umsatzes im Jahr 2024 ausmacht, und die beiden größten Kunden 77 %.

Diese tiefgehende Analyse untersucht, wie CoreWeave von Anfang an eine spezialisierte KI-Infrastruktur aufgebaut hat, warum sich ihre technischen Vorteile gegenüber der Hyperscaler-Konkurrenz als bedeutsam erweisen und ob ihre aggressive Expansionsstrategie die Technologieführerschaft aufrechterhalten kann, während sie gleichzeitig die kapitalintensiven Realitäten des Aufbaus einer Exascale-Computing-Infrastruktur meistert. Anhand von technischen Dokumentationen, Leistungsbenchmarks und Branchenanalysen zeigen wir, wie sich ein Unternehmen, das in einer Garage in New Jersey mit dem Mining von Kryptowährungen begann, als kritische Infrastruktur für die Entwicklung künstlicher Intelligenz positioniert hat - und welche finanziellen Herausforderungen diesen Weg beeinträchtigen könnten.

Der CoreWeave-Vorteil: Speziell entwickelte Infrastruktur für KI-Workloads

Die grundlegende Erkenntnis von CoreWeave, dass KI-Workloads eine völlig andere Infrastruktur erfordern als herkömmliches Cloud Computing, führte zu architektonischen Entscheidungen, die jetzt messbare Leistungsvorteile für Training, Feinabstimmung und Inferenz-Workloads bieten. Während Hyperscaler Hunderte von Milliarden in die Optimierung von Webanwendungen, Datenbanken und Unternehmenssoftware investierten, erkannte CoreWeave, dass große Sprachmodelle und neuronale Netze eine extreme Speicherbandbreite, Interconnects mit extrem niedriger Latenz und eine anhaltende Wärmeableitung erfordern, die allgemeine Rechenzentren nur schwer durchgängig bieten können.

Die technische Differenzierung beginnt mit einer vollständigen vertikalen Integration, die ausschließlich für GPU-Workloads optimiert ist. Der Bare-Metal-Kubernetes-Ansatz von CoreWeave bietet direkten Hardware-Zugriff auf GPU-, CPU-, Netzwerk- und Speicherressourcen ohne Virtualisierungsebenen. Ihr topologiebewusstes Scheduling minimiert die Kommunikationslatenz zwischen den GPUs, während die dedizierte InfiniBand-Struktur 400 Gb/s pro GPU-Konnektivität bietet. Es ist erwähnenswert, dass Hyperscaler-GPU-Instanzen der Spitzenklasse jetzt auch Netzwerke mit hoher Bandbreite bieten - die A3-Instanzen von Google Cloud bieten 3,2 Tbps pro VM, die ND H100 v5 von Azure bietet Konnektivität der Klasse 1,6-3,2 Tbps, und AWS P5-Cluster bieten 3200 Gbps Instanznetzwerke mit SR-IOV/EFA. Der Unterschied liegt weniger in den rohen Verbindungsgeschwindigkeiten als vielmehr in der Clustertopologie von CoreWeave, der Optimierung der Scheduler-Platzierung und dem flüssigkeitsgekühlten Wärmemanagement im Rack-Maßstab.

Laut den von NVIDIA veröffentlichten Benchmarks erreichte Cohere auf den GB200-NVL72-Systemen von CoreWeave eine bis zu dreimal schnellere Schulung im Vergleich zu den Hopper-GPUs der vorherigen Generation - allerdings handelt es sich dabei eher um Hardware-Verbesserungen der jeweiligen Generation als um Cloud-übergreifende Vergleiche. Andere Leistungsangaben von Kunden kursieren in Branchendiskussionen, werden aber von den Unternehmen selbst nicht öffentlich bestätigt.

Die Innovation des Geschäftsmodells erweist sich als ebenso bedeutsam: Durch die ausschließliche Konzentration auf GPU-Computing anstelle des Angebots von Hunderten von Services kann CoreWeave jeden Aspekt seines Betriebs für KI-Workloads optimieren. Diese Spezialisierung ermöglicht eine schnelle Bereitstellung neuer Hardware-Generationen (Wochen im Vergleich zu Quartalen bei herkömmlichen Clouds), einen vereinfachten Betrieb mit geringerem Verwaltungsaufwand, direkte Beziehungen zu GPU-nativen Kunden, die Wert auf Leistung legen, und flexible Verbrauchsmodelle, darunter reservierte Instanzen, On-Demand- und Spot-Preise, die Ende 2025 eingeführt werden.

Die Konkurrenz durch Hyperscaler wird immer stärker, da sie die strategische Bedeutung von KI-Infrastrukturen erkennen. AWS, Google Cloud und Microsoft Azure erweitern alle ihre GPU-Angebote mit verbesserten Netzwerk- und Bare-Metal-Optionen. Der spezialisierte Ansatz von CoreWeave und der First-Mover-Vorteil mit der neuesten Hardware von NVIDIA schaffen jedoch eine Differenzierung. Als einziger Empfänger des SemiAnalysis ClusterMAX-Ratings der Platin-Stufe (März-April 2025) demonstriert CoreWeave seine technische Führungsrolle - obwohl dieses Ratingsystem alle 3-6 Monate Aktualisierungen vorsieht und sich die Wettbewerbsdynamik ständig weiterentwickelt.

Vom Mining von Ethereum zur Ausbildung von Stiftungsmodellen: Die unwahrscheinliche Entstehungsgeschichte

Der Wandel von CoreWeave vom Kryptowährungs-Mining-Betrieb zum KI-Infrastruktur-Powerhouse begann 2017, als die Mitbegründer Michael Intrator, Brian Venturo und Brannin McBee erkannten, dass ihre GPU-Expertise wertvolleren Zwecken als dem Lösen kryptografischer Rätsel dienen könnte. Das in Weehawken, New Jersey, ansässige Unternehmen konzentrierte sich zunächst auf das Ethereum-Mining und sammelte Tausende von Grafikprozessoren an, während es gleichzeitig kundenspezifische Kühllösungen und Orchestrierungssoftware entwickelte, die sich später als unschätzbar wertvoll für KI-Workloads erweisen sollten.

Der entscheidende Moment kam 2019, als Ethereums Umstellung auf Proof-of-Stake das GPU-Mining vollständig zu verdrängen drohte. Anstatt wie die meisten Miner Vermögenswerte zu liquidieren, erkannten die Gründer von CoreWeave eine aufkommende Marktchance - die Bereitstellung von GPU-Rechenleistung für Forscher im Bereich des maschinellen Lernens, die Schwierigkeiten mit dem Zugang zu Hardware in herkömmlichen Clouds hatten. Zu den ersten Kunden zählten akademische Einrichtungen, die für ihre Experimente eine hohe Rechenleistung benötigten, Studios für visuelle Effekte, die CGI für Filme renderten, und Startups, die Computer-Vision-Modelle trainierten.

Die Pandemie 2020 beschleunigte den Schwenk von CoreWeave, da Remote-Arbeit die Nachfrage nach Cloud-Rendering ankurbelte und gleichzeitig die Einführung von KI in allen Branchen beschleunigte. Das Unternehmen unterzeichnete seinen ersten großen Unternehmensvertrag mit einem Hedgefonds, der massive parallele Verarbeitung für die Risikomodellierung benötigte, was das Geschäftsmodell über die Spekulation mit Kryptowährungen hinaus bestätigte. Zum Jahresende hatte CoreWeave mehr als 10.000 GPUs im Einsatz, die verschiedene Arbeitslasten von Proteinfaltungssimulationen bis hin zur Echtzeit-Videotranskodierung bedienten.


Der Durchbruch kam 2022, als OpenAI CoreWeave als Infrastrukturpartner für das Training von GPT-Modellen auswählte, weil das Unternehmen in der Lage war, schnell Tausende von A100-GPUs mit InfiniBand-Netzwerken einzusetzen - eine Konfiguration, die für das Training in großem Maßstab optimiert ist. Die erfolgreichen Implementierungen validierten die CoreWeave-Architektur in einem noch nie dagewesenen Ausmaß, was zu erweiterten Verträgen für zusätzliche Grundlagenmodelle führte. Dieser Ankerkunde sorgte sowohl für stabile Einnahmen als auch für technische Glaubwürdigkeit, was weitere KI-Pioniere anlockte.

Risikokapital erkannte die strategische Position von CoreWeave in der KI-Lieferkette, wobei Magnetar Capital 2022 eine Serie B in Höhe von 200 Millionen Dollar anführte, gefolgt von einem raschen Bewertungswachstum. Die Fremdfinanzierung von Blackstone, Coatue und anderen in Höhe von 7,5 Mrd. USD im Mai 2024 bei einer Bewertung von 19 Mrd. USD war eine der umfangreichsten privaten Kreditfazilitäten in der Geschichte der Technologiebranche und ermöglichte einen aggressiven Ausbau der Infrastruktur zur Deckung der explodierenden Nachfrage.

Die kulturelle DNA des Kryptowährungsbergbaus - das Eingehen von technischen Risiken, die Optimierung der Effizienz und die Zuverlässigkeit im 24/7-Betrieb - ließ sich perfekt auf die Anforderungen der KI-Infrastruktur übertragen. Dieselben Ingenieure, die maximale Hash-Raten aus GPUs herausgeholt haben, optimieren nun Tensor-Operationen, während die finanzielle Disziplin, die erforderlich ist, um von volatilen Kryptomärkten zu profitieren, dabei hilft, das kapitalintensive Infrastrukturgeschäft zu steuern. Diese unwahrscheinliche Entstehungsgeschichte zeigt, wie technologische Umwälzungen oft von benachbarten Branchen und nicht von etablierten Unternehmen ausgehen, wobei Außenseiter, die nicht durch althergebrachtes Denken eingeschränkt sind, spezialisierte Lösungen nach den ersten Prinzipien entwickeln.

Eine komplexe Kapitalstruktur spiegelt sowohl Chancen als auch Risiken wider.

Die Kapitalstruktur von CoreWeave spiegelt sowohl die enormen Möglichkeiten im Bereich der KI-Infrastruktur als auch die kapitalintensive Natur des Wettbewerbs im Hyperscale-Bereich wider. Die Finanzierungsgeschichte umfasst Kreditfazilitäten in Höhe von 7,5 Mrd. USD zu einem Zinssatz von ca. 14 % (Mai 2024), eine Eigenkapitalfinanzierung von insgesamt mehr als 1 Mrd. USD in mehreren Runden, einen sekundären Aktienverkauf, bei dem das Unternehmen mit 23 Mrd. USD bewertet wurde (Oktober 2024), und einen Börsengang in Höhe von 1,5 Mrd. USD zu 40 USD pro Aktie (28. März 2025), wodurch ein börsennotiertes Unternehmen mit einem Unternehmenswert von mehr als 35 Mrd. USD einschließlich Schulden entsteht.

Ankerinvestoren zeigen einen strategischen Wert über das Kapital hinaus. Die Beteiligung von NVIDIA in Höhe von ca. 6 %, die im März 2025 900 Mio. USD und bis Mai fast 1,6 Mrd. USD wert ist, sichert den bevorzugten Zugang zu GPU-Lieferungen bei Zuteilungsbeschränkungen und bietet gleichzeitig eine technische Zusammenarbeit bei der Optimierung von Hardware und Software. Microsofts Kundenbeziehung macht CoreWeave zu einer unverzichtbaren Infrastruktur, insbesondere angesichts der umfangreichen OpenAI-Partnerschaft, die erhebliche Rechenressourcen erfordert. Das Investorenkonsortium, zu dem Fidelity, BlackRock und Altimeter gehören, bringt institutionelle Glaubwürdigkeit mit, die für Unternehmensverkäufe und zukünftige Kapitalbeschaffungen entscheidend ist.

Die Kundenkonzentration stellt sowohl eine Bestätigung als auch ein Risiko dar. Laut den S-1-Einreichungen machte Microsoft etwa 62 % des Umsatzes von CoreWeave im Jahr 2024 aus - eine Abhängigkeit, die eine schnelle Skalierung ermöglichte, aber auch eine Anfälligkeit für Vertragsneuverhandlungen oder strategische Veränderungen mit sich bringt. Die Langfristigkeit dieser Verträge sorgt für eine gewisse Stabilität, auch wenn die genauen Laufzeiten nicht öffentlich bekannt gegeben werden (die Aufträge laufen in der Regel über zwei bis fünf Jahre). OpenAIs Zusage von bis zu 11,9 Mrd. USD sowie eine spätere Erweiterung um 4 Mrd. USD, die in den Investor-Relations-Materialien des Unternehmens bekannt gegeben wurde, sorgen für zusätzliche Ankereinnahmen. Der breitere Kundenstamm, darunter IBM und führende Finanzinstitute, zeigt, dass der Markt über die ursprünglichen Ankermieter hinaus expandiert.

Der Auftragsbestand in Höhe von 30,1 Milliarden US-Dollar (Stand: 2. Quartal 2025) bietet eine für ein Infrastrukturunternehmen beispiellose Transparenz, wobei die vertraglich vereinbarten Umsätze für mehrere Jahre in der Zukunft liegende Verpflichtungen darstellen - obwohl das Ausführungsrisiko angesichts der Komplexität der Bereitstellung und des Betriebs von Hunderttausenden von Grafikprozessoren in Dutzenden von Rechenzentren nach wie vor erheblich ist. Die Umsatzrealisierung hängt von der Verfügbarkeit der Infrastruktur ab, wodurch der Druck entsteht, aggressive Bereitstellungszeitpläne einzuhalten und gleichzeitig die von Unternehmenskunden geforderte Zuverlässigkeit zu gewährleisten.

Die finanzielle Leistung zeigt die schwierige Wirtschaftlichkeit der KI-Infrastruktur. Die Ergebnisse für das zweite Quartal 2025 zeigten einen Umsatz von 1,21 Milliarden US-Dollar, aber steigende Verluste. Das Unternehmen sieht sich mit massiven Abschreibungskosten für die sich schnell entwickelnde Hardware konfrontiert, die Zinsausgaben nähern sich angesichts der Schuldenlast einer Milliarde US-Dollar pro Jahr, und die Betriebskosten steigen mit dem Ausbau der Infrastruktur. Der Weg zur Profitabilität erfordert eine größere Skalierung, um die Fixkosten zu amortisieren, die Auslastung zu verbessern und die Preisdisziplin trotz des Wettbewerbsdrucks aufrechtzuerhalten - ein heikles Gleichgewicht zwischen Wachstum und Nachhaltigkeit.

Die Übernahme von Weights & Biases im Mai 2025 für rund 1,7 Milliarden US-Dollar (laut TechCrunch und Branchenberichten, wobei die offiziellen Bedingungen noch nicht bekannt gegeben wurden) erweitert die MLOps-Funktionen und erhöht gleichzeitig die Integrationskomplexität. Die Übernahme wurde am 5. Mai 2025 abgeschlossen und kombiniert die Infrastruktur mit Modellentwicklungstools, die von mehr als 1.400 Unternehmen genutzt werden.

Stärkung der Marktposition durch Spezialisierung und Partnerschaften.

Die Marktstrategie von CoreWeave kehrt traditionelle Cloud-Plattform-Ansätze um, indem sie den Umfang bewusst einschränkt, um eine unübertroffene Tiefe im GPU-beschleunigten Computing zu erreichen. Während AWS mehr als 200 Services für jede denkbare Arbeitslast anbietet, bietet CoreWeave eine fokussierte GPU-Recheninfrastruktur, die für KI-Training und -Inferenz optimiert ist. Diese Spezialisierung ermöglicht architektonische Optimierungen und betriebliche Effizienzen, die generalistische Plattformen mit breiteren Anforderungen ausgleichen.

Die Wettbewerbsdynamik entwickelt sich rasant weiter. Hyperscaler haben ihre GPU-Angebote erheblich verbessert. AWS, Google Cloud und Azure bieten jetzt Netzwerkoptionen mit hoher Bandbreite, Bare-Metal-Instanzen und eine verbesserte GPU-Verfügbarkeit. Die Differenzierung konzentriert sich zunehmend auf die Verfügbarkeit im Cluster-Maßstab, Topologieoptimierung, Wärmemanagement und Software-Stack-Integration und weniger auf die reinen Spezifikationen.

Die Partnerschaftsstrategie von CoreWeave verstärkt seinen fokussierten Ansatz durch eine tiefe Integration in das Ökosystem. Die Beziehung zu NVIDIA geht über die Kunden-Lieferanten-Dynamik hinaus - die Kapitalbeteiligung von NVIDIA und die konsequente Auswahl von CoreWeave für die Einführung neuer Architekturen (GB200 NVL72 im Februar 2025, GB300 NVL72 im Juli 2025) zeigen die strategische Ausrichtung. Partnerschaften mit Databricks, Hugging Face und anderen KI-Plattformen sorgen für Workflow-Kompatibilität, ohne dass CoreWeave konkurrierende Dienste entwickeln muss.

Die geografische Expansion folgt den KI-Innovationszentren mit 3,5 Mrd. USD, die in die europäische Infrastruktur investiert werden, darunter 1 Mrd. GBP für den Betrieb in Großbritannien und Einrichtungen in Norwegen, Schweden und Spanien, die erneuerbare Energien nutzen. Das Unternehmen betreibt ab 2025 33 Rechenzentren mit ca. 470 MW aktiver IT-Leistung und ca. 2,2 GW vertraglich vereinbarter Kapazität (Q2 2025) und ist damit für weiteres Wachstum positioniert.

Der nachhaltige Wettbewerbsvorteil ergibt sich aus einer Kombination von Effekten: Die spezialisierte Infrastruktur zieht anspruchsvolle Kunden an, die konzentrierte Nachfrage rechtfertigt kontinuierliche Investitionen, und die technische Führerschaft sichert einen frühen Zugang zu neuer Hardware. Damit ist CoreWeave einzigartig positioniert, wenngleich die Umsetzungsrisiken angesichts des Kapitalbedarfs und des Wettbewerbsdrucks erheblich bleiben.

Technische Infrastruktur: KI-Entwicklung in noch nie dagewesenem Umfang

Die Rechenzentren von CoreWeave umfassen 33 Betriebsstätten in den Vereinigten Staaten und Europa (Stand 2025) und stellen damit eine der größten spezialisierten GPU-Installationen weltweit dar. Die geografische Verteilung umfasst 28 US-Standorte mit großen Installationen, wie z. B. die 1,6 Milliarden Dollar teure Anlage in Plano, Texas, die mehr als 3.500 H100 GPUs auf 454.421 Quadratmetern beherbergt. Bei der Einreichung von MLPerf Training v5.0 (Juni 2025) erreichten CoreWeave, NVIDIA und IBM den bisher größten Benchmark mit 2.496 GB200 GPUs, um Llama 3.1 405B in 27,3 Minuten zu trainieren - mehr als doppelt so schnell wie vergleichbare Clustergrößen von anderen Einreichern.

Die Stromversorgungsinfrastruktur ist ein entscheidendes Unterscheidungsmerkmal mit einer aktiven Kapazität von etwa 470 Megawatt und mehr als 2,2 Gigawatt (Stand: 2. Quartal 2025), einschließlich Anlagen, die für außergewöhnliche Effizienz ausgelegt sind. Die Flüssigkeitskühlungstechnologie, die 130 Kilowatt pro Rack unterstützt - im Vergleich zu herkömmlichen luftgekühlten 30-Kilowatt-Grenzwerten - ermöglicht den Einsatz von dichten Konfigurationen wie NVIDIA GB200 NVL72 Systemen mit 72 GPUs pro Rack.

Die GPU-Flotte basiert auf den neuesten Architekturen von NVIDIA und umfasst insgesamt etwa 250.000 GPUs. Die Zusammensetzung umfasst H100-Varianten in SXM5- und PCIe-Konfigurationen, H200-GPUs mit 141 GB HBM3e-Speicher und erste Einsätze von GB200-NVL72-Systemen. CoreWeave hat die erste allgemeine Verfügbarkeit des GB200 NVL72 (Februar 2025) und die erste Bereitstellung des GB300 NVL72 (3. Juli 2025) erreicht und damit sein Muster des frühen Zugangs zu neuer NVIDIA-Hardware beibehalten.

Das Netzwerk-Backbone verwendet NVIDIA Quantum-2 InfiniBand mit 400 Gb/s pro GPU über ConnectX-7-Adapter in nicht blockierenden Fat-Tree-Topologien, die eine Latenzzeit im Submikrosekundenbereich bei hohem Durchsatz erreichen, obwohl die rohen Netzwerkgeschwindigkeiten jetzt mit den Top-Tier-Hyperscaler-Angeboten gleichziehen. Der Unterschied liegt in der Topologieoptimierung, der Scheduler-Integration und der konsistenten Konfiguration über Cluster hinweg.

Die Speicherarchitektur basiert auf VAST Data Platform-Implementierungen, die eine disaggregierte Architektur für unabhängige Skalierung nutzen. Das System erreicht einen anhaltenden Durchsatz von bis zu 1 GB/s pro GPU mit optimierten E/A-Mustern, die Trainingslesungen von Checkpointing-Schreibvorgängen unterscheiden. Die LOTA (Local Object Transfer Accelerator)-Technologie von CoreWeave speichert Daten, auf die häufig zugegriffen wird, in einem Cache auf GPU-Knoten, wodurch der Netzwerkverkehr reduziert und der Durchsatz verbessert wird.

Software-Stack optimiert für Bare-Metal-Leistung.

Die Bare-Metal-Kubernetes-Architektur von CoreWeave eliminiert den Virtualisierungs-Overhead, indem Kubernetes direkt auf der Hardware ausgeführt wird. Dieser Ansatz bietet direkten Hardware-Zugriff bei gleichzeitiger Aufrechterhaltung der Multi-Tenancy durch NVIDIA BlueField DPUs. Interne Benchmarks behaupten, dass dies eine Modell-FLOPS-Auslastung von mehr als 50 % auf Hopper-GPUs ermöglicht - etwa 20 % höher als die öffentlichen Baselines, obwohl eine unabhängige Verifizierung dieser spezifischen Zahlen noch begrenzt ist.

Der CoreWeave Kubernetes Service (CKS) geht über das typische verwaltete Kubernetes hinaus, indem er dem Kunden die Kontrolle über die Komponenten der Datenebene ermöglicht, während CoreWeave die Kontrollebene verwaltet. CKS ist mit GPU-Treibern, Netzwerk-/Speicherschnittstellen und Observability-Plugins vorkonfiguriert und lässt sich mit Workload-Orchestrierungstools wie Slurm, KubeFlow und KServe integrieren.

SUNK (Slurm on Kubernetes) schlägt eine Brücke zwischen HPC- und Cloud-Paradigmen, indem es Slurm als containerisierte Kubernetes-Ressourcen einsetzt und so die dynamische gemeinsame Nutzung von Ressourcen zwischen Batch-Jobs und lang laufenden Diensten ermöglicht. Es erreicht eine hohe Auslastung durch topologiebewusstes Scheduling, das für InfiniBand-Fabric-Konfigurationen optimiert ist.

Die Tensorizer-Technologie beschleunigt die Modellbereitstellung durch optimierte Serialisierung und Streaming und erreicht laut CoreWeave-Benchmarks 5x schnellere Modellladegeschwindigkeiten als Standardansätze. Das Open-Source-Tool ermöglicht das "Zero-Copy"-Laden, bei dem Modelle Stück für Stück gestreamt werden, anstatt ganze Modelle in den RAM zu laden.

Modernste Implementierungen mit verifizierten Leistungsbenchmarks

Zu den Errungenschaften von CoreWeave im Bereich Infrastruktur gehören verifizierbare MLPerf-Einreichungen, die Skalierbarkeit und Leistung demonstrieren. Die MLPerf Training v5.0 Einreichung vom Juni 2025 mit 2.496 NVIDIA GB200 GPUs schloss das Llama 3.1 405B Training in 27,3 Minuten ab - die größte Einreichung eines Cloud-Anbieters und mehr als zweimal schneller als vergleichbare Clustergrößen.

Die Inferenzleistung erreicht 800 Token/Sekunde auf Llama 3.1 405B unter Verwendung von GB200-Systemen gemäß den MLPerf Inference v5.0-Ergebnissen und zeigt eine 2,86-fache Verbesserung pro Chip gegenüber H200. Die GB200 NVL72-Architektur kombiniert 72 Blackwell-GPUs mit 36 Grace-CPUs pro Rack und liefert 1,44 exaFLOPS mit 13,5 TB an NVLink-verbundenem Speicher.

Das ClusterMAX-Bewertungssystem von SemiAnalysis platzierte bei seiner Einführung im März/April 2025 nur CoreWeave in der Platin-Stufe und bewertete AWS, Google Cloud, Azure und andere Anbieter anhand von über 50 technischen Anforderungen. Diese unabhängige Bewertung bestätigt die technische Differenzierung, obwohl das Bewertungssystem regelmäßige Aktualisierungen plant, wenn sich die Wettbewerbslandschaft weiterentwickelt.

Technologiepartnerschaften beschleunigen die Leistungsfähigkeit der Plattform.

Die Partnerschaft mit NVIDIA geht über die typischen Anbieterbeziehungen hinaus. NVIDIA hält einen Anteil von etwa 6 % am Kapital, der im Mai 2025 mit fast 1,6 Milliarden US-Dollar bewertet wird. Diese tiefe Integration manifestiert sich in der konsequenten Markteinführung neuer Architekturen und der gemeinsamen Entwicklung von Optimierungen. Die gemeinsamen MLPerf-Einreichungen zeigen diese technische Zusammenarbeit.

IBMs Einsatz der CoreWeave-Infrastruktur für die Granite-Modellschulung nutzt GB200-Systeme mit Quantum-2 InfiniBand-Netzwerken. Die Infrastrukturpartnerschaft mit Dell umfasst PowerEdge XE9712-Server mit GB200 NVL72 in flüssigkeitsgekühlten Racks. VAST Data betreibt den Speicher in allen CoreWeave-Rechenzentren über seine disaggregierte Architekturplattform.

Die Übernahme von Weights & Biases für rund 1,7 Milliarden US-Dollar (abgeschlossen am 5. Mai 2025) schafft eine integrierte KI-Plattform, die Infrastruktur mit MLOps-Funktionen kombiniert. Die Plattform, die von mehr als 1.400 Unternehmen, darunter OpenAI und Meta, genutzt wird, sorgt für Interoperabilität und bietet gleichzeitig Tools für die Modellentwicklung und -überwachung.

Künftiger Kurs bringt Wachstum und finanzielle Nachhaltigkeit in Einklang.

Zu den zukunftsweisenden Initiativen von CoreWeave gehören mehrere wichtige Entwicklungen. Der Einsatz des GB300 NVL72 (Juli 2025) verspricht, was NVIDIA als "50-fache Verbesserungen bei der Inferenzleistung von Reasoning-Modellen" vermarktet, obwohl es sich hierbei eher um Herstellerprognosen als um unabhängig verifizierte Benchmarks handelt. Die GPU-Spot-Vermietung, die Ende 2025 eingeführt wird, bietet kostengünstigere unterbrechbare Instanzen mit dynamischer Preisgestaltung.

Die europäische Expansion mit einem Gesamtvolumen von 3,5 Milliarden US-Dollar schafft Datensouveränität durch Anlagen, die mit erneuerbaren Energien betrieben werden und die GDPR-Anforderungen erfüllen. Das Unternehmen setzt seine Skalierung auf 1,6 Gigawatt vertraglich vereinbarter Stromkapazität fort und erweitert gleichzeitig die Flüssigkühlungskapazitäten zur Unterstützung der nächsten Hardware-Generation.

Finanzielle Herausforderungen erfordern eine sorgfältige Navigation. Mit einer Verschuldung von über 11 Mrd. US-Dollar und jährlichen Zinsaufwendungen von ca. 1 Mrd. US-Dollar muss CoreWeave ein aggressives Wachstum mit einem Weg zur Rentabilität in Einklang bringen. Das Risiko der Kundenkonzentration ist weiterhin hoch, da Microsoft 62 % des Umsatzes im Jahr 2024 ausmacht. Das Unternehmen meldete im zweiten Quartal 2025 steigende Verluste, obwohl es einen Quartalsumsatz von 1,21 Milliarden US-Dollar erzielte.

Die Marktchancen sind nach wie vor beträchtlich: IDC prognostiziert jährliche Ausgaben für KI-Infrastrukturen in Höhe von 500 Milliarden US-Dollar bis 2027. Der spezialisierte Ansatz und die technischen Vorteile von CoreWeave versetzen das Unternehmen in die Lage, einen erheblichen Wert zu erzielen. Allerdings bestehen angesichts des Kapitalbedarfs, der Wettbewerbsdynamik und der Notwendigkeit, den Kundenstamm zu diversifizieren und gleichzeitig die Wachstumsdynamik aufrechtzuerhalten, weiterhin Umsetzungsrisiken.

Schlussfolgerung

CoreWeave hat eine spezialisierte KI-Infrastruktur entwickelt, die messbare Vorteile durch eine Bare-Metal-Kubernetes-Architektur, eine Flüssigkeitskühlung mit einer Rack-Dichte von 130 kW und eine konsequente First-to-Market-Bereitstellung der neuesten NVIDIA-Technologien bietet. Der Wandel vom Kryptowährungs-Mining zum einzigen Anbieter mit Platin-Rating im ClusterMAX-System von SemiAnalysis (Stand: März 2025) zeigt die erfolgreiche Umsetzung einer fokussierten Strategie. Mit nachweisbaren Erfolgen, darunter die größte MLPerf-Trainingseinreichung - Llama 3.1 405B in 27,3 Minuten unter Verwendung von 2.496 GB200 GPUs - und einem Auftragsbestand von 30,1 Milliarden US-Dollar hat sich CoreWeave als wichtige Infrastruktur für die KI-Entwicklung etabliert.

Der Weg in die Zukunft erfordert jedoch die Bewältigung erheblicher Herausforderungen, darunter Schulden in Höhe von über 11 Milliarden US-Dollar, eine Kundenkonzentration, bei der Microsoft den Großteil des Umsatzes im Jahr 2024 ausmacht, und die Konkurrenz durch immer leistungsfähigere Hyperscaler-Angebote. Während das Unternehmen auf rund 2,2 Gigawatt vertraglich vereinbarter Leistungskapazität zusteuert und Systeme der nächsten Generation einsetzt, wird seine Fähigkeit, die technische Führungsposition zu halten und gleichzeitig finanzielle Nachhaltigkeit zu erreichen, darüber entscheiden, ob dieser ehemalige Krypto-Miner die KI-Infrastrukturlandschaft dauerhaft umgestalten kann.

Aktuelle Daten bis zum 15. August 2025. Quellen sind u. a. Unternehmensberichte, SEC-Dokumente, MLPerf-Benchmarks und Branchenanalysen von SemiAnalysis.

Referenzen

  1. CoreWeave, Inc. - Formular S-1 (Erstregistrierungserklärung), U.S. SEC, eingereicht am 3. März 2025. (Umsatzhistorie; 737% Wachstum 2024; Unternehmenshintergrund.)(SEC)

  2. CoreWeave, Inc. - Prospekt (Formular 424B4), U.S. SEC, April 2025. (Kundenkonzentration; Microsoft = 62% der Einnahmen 2024.)(SEC)

  3. CoreWeave - "CoreWeave berichtet starke Ergebnisse für das zweite Quartal 2025", Business Wire/IR, 12. August 2025. (Q2 $1,212B Umsatz, $30,1B Auftragsbestand; ~470 MW aktiv, ~2,2 GW unter Vertrag; OpenAI $11,9B + $4Bexpansion.)(Business Wire)

  4. Reuters - "CoreWeave-Umsatz übertrifft Schätzungen dank KI-Boom, aber Aktien fallen wegen größerem Verlust", 12. August 2025. (Q2-Ergebnisse; 33 Rechenzentren.)(Reuters)

  5. Reuters - "CoreWeave nimmt Schulden in Höhe von 7,5 Mrd. $ bei einer Bewertung von 19 Mrd. $ auf", 17. Mai 2024. (Privater Kredit; $19B-Bewertung.)

  6. Reuters - "CoreWeave schließt 650 Millionen Dollar Sekundäranteilsverkauf ab... bewertet mit 23 Milliarden Dollar", 13. November 2024.(23 Mrd. $ Sekundärbewertung.)(Reuters)

  7. SemiAnalysis - "Introducing the Cloud GPU Performance Rating System - ClusterMAX (Q2 2025)", April 2025. (ClusterMAX-Methodik; CoreWeave = Platin.)(SemiAnalysis)

  8. CoreWeave - "Blackwell im Maßstab: Allgemeine Verfügbarkeit des GB200 NVL72 auf CoreWeave", 4. Februar 2025. (Erste GA mit GB200 NVL72.)(Reuters)

  9. CoreWeave - "Erster Einsatz des NVIDIA GB300 NVL72" (Blog), 3. Juli 2025. (Erster GB300 NVL72-Einsatz.)(CoreWeave)

  10. NVIDIA Developer Blog - "Blackwell Ultra für das Zeitalter der KI-Reasoning", 19. März 2025. (**"10× TPS pro Benutzer" + "5× TPS pro MW" ⇒ "bis zu 50× Leistung" Marketingaussage.)(NVIDIA-Entwickler)

  11. MLCommons - MLPerf Training v5.0 Ergebnisse (2025). (Llama-3.1 405B 27,3 Minuten auf 2.496 GB200; größte Einreichung.)(Microsoft Learn)

  12. MLCommons - MLPerf Inference v5.0 (Rechenzentrum) Ergebnisse (2025). (Llama-3.1 405B Durchsatz/Latenz inkl.GB200 vs. H200 Vergleich, der in den Zusammenfassungen der Anbieter verwendet wird).(Microsoft Learn)

  13. AWS - P5-Instanzen / EFA-Vernetzung (offizielles Dokument/Blog).(Bis zu 3.200 Gbit/s Instanzvernetzung auf p5 mit EFA/SR-IOV.)(Amazon Web Services, Inc.)

  14. Microsoft Azure - Produktseite "ND H100 v5-Series (Preview)".( Netzwerkeder Klasse 1,6-3,2 Tbps.)(AWS-Dokumentation)

  15. Google Cloud Blog - "A3 Ultra: 3,2 Tbps GPU-Netzwerkleistung pro VM" (Material zur Einführung von A3/A3 Ultra).(3,2 Tbps pro VM.)(Google Cloud)

  16. Dell Technologies - "Dell liefert erste PowerEdge XE9712-Server mit NVIDIA GB200 NVL72 an CoreWeave", 20. Juni 2025. (Partner für die Lieferung im Rackmaßstab, flüssigkeitsgekühlt)(CoreWeave)

  17. VAST Data - "Scale-out AI performance at CoreWeave" (Fallstudie/Lösungsseite), 2025. (VAST wird in allen CoreWeave-DCs eingesetzt; E/A-Architektur.)(CoreWeave)

  18. Weights & Biases - "Wir schließen uns CoreWeave an" (Ankündigung der Übernahme), 5. Mai 2025. (Abschluss/Zeitpunkt des W&B-Geschäfts; Richtung der Integration)(FinTech Weekly - Home Page)

  19. Reuters - "CoreWeave investiert weitere 2,2 Mrd. USD in Europa und damit insgesamt 3,5 Mrd. USD", 5. Juni 2024. (Umfang der europäischen Expansion/Standorte.)(Reuters)

  20. Investor's Business Daily - "Nvidia-backed CoreWeave's IPO filing shows big revenue jump... Microsoft 62%; Nvidia 6% stake", März 2025. (Bestätigt die ~6%ige NVIDIA-Beteiligung, die in den Einreichungen/Presse vermerkt ist)(Investoren)

Weiter
Weiter

Lokaler LLM-Hardware-Leitfaden 2025: Preise und Spezifikationen