Meta hat eine spezielle Variante von Catalina Pods vorgestellt, die eine besonders hohe Leistungsdichte ermöglicht. Das System basiert auf der Verwendung von flüssigkeitsgekühlten GPUs in luftgekühlten Rechenzentren.
Meta hat die Bausteine seines Catalina AI-Systems vorgestellt (WCCTech berichtete), das in den Rechenzentren des Unternehmens zum Einsatz kommt. Das System basiert auf NVIDIAs Blackwell GB200 NVL72, wurde aber von Meta an spezifische Anforderungen angepasst und nutzt eine NVL36x2 Konfiguration.
Besonders bemerkenswert ist die Fähigkeit, bis zu 120 kW pro Rack zu unterstützen. Für den Betrieb von zwei dieser 120-kW-Racks, die jeweils 18 Compute-Trays mit 72 Grace-CPUs und 144 Blackwell-GPUs sowie neun NV-Switches enthalten, werden vier separate Kühl-Racks benötigt. Insgesamt bilden zwei IT-Racks, die jeweils 18 Compute-Trays und neun NV-Switches umfassen, eine einzelne 72-GPU-Skalierungsdomäne. Diese Zwei-Rack-Lösung ermöglicht eine Erhöhung der Anzahl der CPUs und des Speichers, sodass bis zu 48 TB kohärenten Cache-Speichers zwischen GPUs und CPUs erreicht werden können.

Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Das Catalina-System erfordert eine leistungsstarke Flüssigkeitskühlung. Meta setzt luftunterstützte Flüssigkeitskühlgeräte (ALCs) ein, die es ermöglichen, flüssigkeitsgekühlte Racks mit hoher Leistungsdichte in bestehenden Rechenzentren zu implementieren, die ursprünglich für luftgekühlte Systeme mit geringerer Dichte ausgelegt waren.
Die Stromversorgung des Systems erfolgt über Netzteile, die 480 Volt oder 277 Volt einphasig in 48 Volt Gleichstrom umwandeln. Dieser Gleichstrom wird dann über die Stromschiene im Rack verteilt. Meta verwendet eine Hochleistungsversion seiner Open Racks, das eine Leistungsaufnahme von bis zu 94 kW für die Stromschiene ermöglicht.
Für die Vernetzung nutzt Meta ein eigenes disaggregiertes, Netzwerk. Es ermöglicht die Verbindung mehrerer dieser Pods innerhalb eines Rechenzentrums oder über mehrere Gebäude hinweg, um große Cluster zu bilden. Das Fabric ist für KI optimiert und bietet Flexibilität und Geschwindigkeit, damit die GPUs miteinander kommunizieren können.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Bisher unbekannter Investor plant Rechenzentrum im Grenzgebiet zu den Niederlanden
Ein Investor plant den Bau eines großen Rechenzentrums in Gangelt, einer Gemeinde im Kreis Heinsberg. Das Projekt soll auf einer
Edisun Power will Solarstrom für KI-Rechenzentren liefern
Der europäische Solarstromproduzent Edisun Power plant, den Strom seines 941-Megawatt-Solarkraftwerks Fuencarral in der Nähe von Madrid an Rechenzentren in
Google TPUs: eine Bedrohung für NVIDIA?
Die wachsende Nachfrage nach Google's Tensor Processing Units (TPUs) stellt eine potenzielle Herausforderung für die Marktdominanz von NVIDIA im