Meta hat eine spezielle Variante von Catalina Pods vorgestellt, die eine besonders hohe Leistungsdichte ermöglicht. Das System basiert auf der Verwendung von flüssigkeitsgekühlten GPUs in luftgekühlten Rechenzentren.
Meta hat die Bausteine seines Catalina AI-Systems vorgestellt (WCCTech berichtete), das in den Rechenzentren des Unternehmens zum Einsatz kommt. Das System basiert auf NVIDIAs Blackwell GB200 NVL72, wurde aber von Meta an spezifische Anforderungen angepasst und nutzt eine NVL36x2 Konfiguration.
Besonders bemerkenswert ist die Fähigkeit, bis zu 120 kW pro Rack zu unterstützen. Für den Betrieb von zwei dieser 120-kW-Racks, die jeweils 18 Compute-Trays mit 72 Grace-CPUs und 144 Blackwell-GPUs sowie neun NV-Switches enthalten, werden vier separate Kühl-Racks benötigt. Insgesamt bilden zwei IT-Racks, die jeweils 18 Compute-Trays und neun NV-Switches umfassen, eine einzelne 72-GPU-Skalierungsdomäne. Diese Zwei-Rack-Lösung ermöglicht eine Erhöhung der Anzahl der CPUs und des Speichers, sodass bis zu 48 TB kohärenten Cache-Speichers zwischen GPUs und CPUs erreicht werden können.

Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Das Catalina-System erfordert eine leistungsstarke Flüssigkeitskühlung. Meta setzt luftunterstützte Flüssigkeitskühlgeräte (ALCs) ein, die es ermöglichen, flüssigkeitsgekühlte Racks mit hoher Leistungsdichte in bestehenden Rechenzentren zu implementieren, die ursprünglich für luftgekühlte Systeme mit geringerer Dichte ausgelegt waren.
Die Stromversorgung des Systems erfolgt über Netzteile, die 480 Volt oder 277 Volt einphasig in 48 Volt Gleichstrom umwandeln. Dieser Gleichstrom wird dann über die Stromschiene im Rack verteilt. Meta verwendet eine Hochleistungsversion seiner Open Racks, das eine Leistungsaufnahme von bis zu 94 kW für die Stromschiene ermöglicht.
Für die Vernetzung nutzt Meta ein eigenes disaggregiertes, Netzwerk. Es ermöglicht die Verbindung mehrerer dieser Pods innerhalb eines Rechenzentrums oder über mehrere Gebäude hinweg, um große Cluster zu bilden. Das Fabric ist für KI optimiert und bietet Flexibilität und Geschwindigkeit, damit die GPUs miteinander kommunizieren können.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Der Code des Gehirns: Wie die Thousand Brains Theory die KI neu erfinden könnte
Die Thousand Brains Theory beschreibt einen neuen Ansatz, der auf Grundlage der Struktur des menschlichen Gehirns künstlicher Intelligenz zu
Die Huxley-Gödel-Maschine: die Evolution der künstlichen Intelligenz
Die Huxley-Gödel-Maschine (HGM) ist ein neues System, das die Weiterentwicklung von KI-Systemen deutlich beschleunigen könnte. Es wurde entwickelt, um sich
US-Umfrage: Steigende Energienachfrage durch Rechenzentren und KI verunsichert Hauseigentümer
Eine aktuelle Umfrage unter US-Hauseigentümern zeigt, dass der wachsende Energiebedarf durch Künstliche Intelligenz (KI) und Rechenzentren – in Kombination mit
Zum Inhalt springen



