Nvidia hat eine neue Scale-Across-Technologie vorgestellt: Spectrum-XGS Ethernet. Ziel dieser Entwicklung ist es, mehrere Rechenzentren miteinander zu verbinden, um eine vereinheitlichte „KI-Superfabrik" zu bilden. Nvidia präsentierte Spectrum-XGS auf der Hot Chips 2025 als eine Lösung für den steigenden Ressourcenbedarf aufgrund von KI.
Laut Dave Salvator, Director of Accelerated Computing Products bei Nvidias Accelerated Computing Group übersteige die zunehmende Inferenzleistung von KI-Agenten normale Aufgaben für Multi-GPU- und Multi-Node-Systeme und werde damit zu einer Herausforderung für die Skalierung von Netzwerken.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Spectrum-XGS baut auf Spectrum-X auf, Nvidias Ethernet-basierter Netzwerkstruktur, die speziell für KI entwickelt wurde. Spectrum-X wurde 2024 eingeführt und vereint Nvidias Netzwerk-Hardware und -Software zu einer KI-optimierten Plattform, die Spectrum SN5600 Switches mit BlueField-3 DPUs kombiniert, um die Netzwerkleistung für generative KI auf das 1,6-fache herkömmlicher Ethernet-Strukturen zu steigern.
Spectrum-XGS markiert die nächste Entwicklungsstufe des Ethernet-Angebots von Nvidia. Mithilfe eines neuen Netzwerkalgorithmus wird die Spectrum-X Infrastruktur genutzt, um Daten effektiv über längere Distanzen zwischen Standorten zu übertragen. Die Lösung integriert Nvidia Spectrum-X Switches mit ConnectX-8 SuperNICs, den KI-zentrierten 800-Gb/s-Netzwerkadaptern des Unternehmens.
Die neue Netzwerkplattform soll die Leistung der Nvidia Collective Communications Library (NCCL) für eine schnelle Kommunikation zwischen Nvidia GPUs nahezu verdoppeln. Die Plattform soll außerdem eine 1,6-fache Bandbreite im Vergleich zu Standard-Ethernet in großen KI-Umgebungen mit mehreren Mietern bieten. Ziel ist es, dass mehrere Rechenzentren miteinander kommunizieren und wie eine mächtige und besonders leistungsfähige GPU oder eine "KI-Superfabrik" (gemäß Nvidias Terminologie) agieren. Die Methode wird als „Scale-Across" beschrieben, ergänzend zu den bestehenden Scale-Up- und Scale-Out-Architekturen.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Weitere Artikel
Microsoft untersagt Mitarbeitern die Nutzung der DeepSeek App
Microsoft hat seinen Angestellten die Nutzung von DeepSeek verboten und bietet den Dienst auch nicht in seinem eigenen App Store
Microsoft räumt mögliche KI-Kapazitätsengpässe ab Juni ein – Zusammenhang mit den zurückgestellten Investitionen?
Microsoft hat eine Warnung ausgesprochen, die aufhorchen lässt: Kunden könnten bald mit Engpässen bei den KI-Diensten konfrontiert sein. Grund sei
TikTok plant Milliarden-Investition in erstes finnisches Rechenzentrum
TikTok, das beliebte soziale Netzwerk im Besitz des chinesischen Unternehmens ByteDance, arbeitet an einer deutlichen Erweiterung seiner europäischen Infrastruktur
Zum Inhalt springen



