Meta hat eine spezielle Variante von Catalina Pods vorgestellt, die eine besonders hohe Leistungsdichte ermöglicht. Das System basiert auf der Verwendung von flüssigkeitsgekühlten GPUs in luftgekühlten Rechenzentren.
Meta hat die Bausteine seines Catalina AI-Systems vorgestellt (WCCTech berichtete), das in den Rechenzentren des Unternehmens zum Einsatz kommt. Das System basiert auf NVIDIAs Blackwell GB200 NVL72, wurde aber von Meta an spezifische Anforderungen angepasst und nutzt eine NVL36x2 Konfiguration.
Besonders bemerkenswert ist die Fähigkeit, bis zu 120 kW pro Rack zu unterstützen. Für den Betrieb von zwei dieser 120-kW-Racks, die jeweils 18 Compute-Trays mit 72 Grace-CPUs und 144 Blackwell-GPUs sowie neun NV-Switches enthalten, werden vier separate Kühl-Racks benötigt. Insgesamt bilden zwei IT-Racks, die jeweils 18 Compute-Trays und neun NV-Switches umfassen, eine einzelne 72-GPU-Skalierungsdomäne. Diese Zwei-Rack-Lösung ermöglicht eine Erhöhung der Anzahl der CPUs und des Speichers, sodass bis zu 48 TB kohärenten Cache-Speichers zwischen GPUs und CPUs erreicht werden können.

Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Das Catalina-System erfordert eine leistungsstarke Flüssigkeitskühlung. Meta setzt luftunterstützte Flüssigkeitskühlgeräte (ALCs) ein, die es ermöglichen, flüssigkeitsgekühlte Racks mit hoher Leistungsdichte in bestehenden Rechenzentren zu implementieren, die ursprünglich für luftgekühlte Systeme mit geringerer Dichte ausgelegt waren.
Die Stromversorgung des Systems erfolgt über Netzteile, die 480 Volt oder 277 Volt einphasig in 48 Volt Gleichstrom umwandeln. Dieser Gleichstrom wird dann über die Stromschiene im Rack verteilt. Meta verwendet eine Hochleistungsversion seiner Open Racks, das eine Leistungsaufnahme von bis zu 94 kW für die Stromschiene ermöglicht.
Für die Vernetzung nutzt Meta ein eigenes disaggregiertes, Netzwerk. Es ermöglicht die Verbindung mehrerer dieser Pods innerhalb eines Rechenzentrums oder über mehrere Gebäude hinweg, um große Cluster zu bilden. Das Fabric ist für KI optimiert und bietet Flexibilität und Geschwindigkeit, damit die GPUs miteinander kommunizieren können.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
xAI entlässt laut Bericht von 500 Mitarbeiter im Daten-Annotationsteam
Viele Mitarbeiter aus dem Daten-Annotationsteam haben am vergangenen Freitag die Nachricht erhalten, dass ihre Dienste nicht weiter benötigt würden und
Cisco führt KI-gestützte Sicherheitslösungen ein
Cisco hat die Einführung der Splunk Enterprise Security Essentials Edition und der Splunk Enterprise Security Premier Edition bekannt gegeben.
OpenAI und Nvidia planen laut Bericht Milliarden-Investitionen in britische Rechenzentren
Die Führungskräfte von OpenAI und Nvidia beabsichtigen, bei einem Besuch in Großbritannien in der kommenden Woche milliardenschwere Investitionen in
Zum Inhalt springen



