Meta hat eine spezielle Variante von Catalina Pods vorgestellt, die eine besonders hohe Leistungsdichte ermöglicht. Das System basiert auf der Verwendung von flüssigkeitsgekühlten GPUs in luftgekühlten Rechenzentren.
Meta hat die Bausteine seines Catalina AI-Systems vorgestellt (WCCTech berichtete), das in den Rechenzentren des Unternehmens zum Einsatz kommt. Das System basiert auf NVIDIAs Blackwell GB200 NVL72, wurde aber von Meta an spezifische Anforderungen angepasst und nutzt eine NVL36x2 Konfiguration.
Besonders bemerkenswert ist die Fähigkeit, bis zu 120 kW pro Rack zu unterstützen. Für den Betrieb von zwei dieser 120-kW-Racks, die jeweils 18 Compute-Trays mit 72 Grace-CPUs und 144 Blackwell-GPUs sowie neun NV-Switches enthalten, werden vier separate Kühl-Racks benötigt. Insgesamt bilden zwei IT-Racks, die jeweils 18 Compute-Trays und neun NV-Switches umfassen, eine einzelne 72-GPU-Skalierungsdomäne. Diese Zwei-Rack-Lösung ermöglicht eine Erhöhung der Anzahl der CPUs und des Speichers, sodass bis zu 48 TB kohärenten Cache-Speichers zwischen GPUs und CPUs erreicht werden können.

Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Das Catalina-System erfordert eine leistungsstarke Flüssigkeitskühlung. Meta setzt luftunterstützte Flüssigkeitskühlgeräte (ALCs) ein, die es ermöglichen, flüssigkeitsgekühlte Racks mit hoher Leistungsdichte in bestehenden Rechenzentren zu implementieren, die ursprünglich für luftgekühlte Systeme mit geringerer Dichte ausgelegt waren.
Die Stromversorgung des Systems erfolgt über Netzteile, die 480 Volt oder 277 Volt einphasig in 48 Volt Gleichstrom umwandeln. Dieser Gleichstrom wird dann über die Stromschiene im Rack verteilt. Meta verwendet eine Hochleistungsversion seiner Open Racks, das eine Leistungsaufnahme von bis zu 94 kW für die Stromschiene ermöglicht.
Für die Vernetzung nutzt Meta ein eigenes disaggregiertes, Netzwerk. Es ermöglicht die Verbindung mehrerer dieser Pods innerhalb eines Rechenzentrums oder über mehrere Gebäude hinweg, um große Cluster zu bilden. Das Fabric ist für KI optimiert und bietet Flexibilität und Geschwindigkeit, damit die GPUs miteinander kommunizieren können.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Datenschutz und Datensouveränität: Microsoft stellt EU Data Boundary fertig
Microsoft hat mit der EU Data Boundary ein mehrjähriges Projekt zum Datenschutz und zur Datensouveränität abgeschlossen, das es europäischen Kunden
#10 KI und Tech To Go – Der Praxis-Pitch
Im Fokus KI in der Wissenschaft: KI-Nachrichten, Modelle und Anwendungen in Medizin, Genomforschung und Wettervorhersagen KI-gestützte Forschung: Ein
Cisco Nexus HyperFabric AI Cluster: Integrierte End-to-End-Lösung für generative KI-Infrastrukturen mit NVIDIA-Technologie
Generative KI stellt wachsende Anforderungen an die Rechenzentrumsinfrastruktur und verändert bestehende IT-Architekturen grundlegend. Cisco und NVIDIA präsentieren eine optimierte