Nvidia hat eine neue Scale-Across-Technologie vorgestellt: Spectrum-XGS Ethernet. Ziel dieser Entwicklung ist es, mehrere Rechenzentren miteinander zu verbinden, um eine vereinheitlichte „KI-Superfabrik" zu bilden. Nvidia präsentierte Spectrum-XGS auf der Hot Chips 2025 als eine Lösung für den steigenden Ressourcenbedarf aufgrund von KI.
Laut Dave Salvator, Director of Accelerated Computing Products bei Nvidias Accelerated Computing Group übersteige die zunehmende Inferenzleistung von KI-Agenten normale Aufgaben für Multi-GPU- und Multi-Node-Systeme und werde damit zu einer Herausforderung für die Skalierung von Netzwerken.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Spectrum-XGS baut auf Spectrum-X auf, Nvidias Ethernet-basierter Netzwerkstruktur, die speziell für KI entwickelt wurde. Spectrum-X wurde 2024 eingeführt und vereint Nvidias Netzwerk-Hardware und -Software zu einer KI-optimierten Plattform, die Spectrum SN5600 Switches mit BlueField-3 DPUs kombiniert, um die Netzwerkleistung für generative KI auf das 1,6-fache herkömmlicher Ethernet-Strukturen zu steigern.
Spectrum-XGS markiert die nächste Entwicklungsstufe des Ethernet-Angebots von Nvidia. Mithilfe eines neuen Netzwerkalgorithmus wird die Spectrum-X Infrastruktur genutzt, um Daten effektiv über längere Distanzen zwischen Standorten zu übertragen. Die Lösung integriert Nvidia Spectrum-X Switches mit ConnectX-8 SuperNICs, den KI-zentrierten 800-Gb/s-Netzwerkadaptern des Unternehmens.
Die neue Netzwerkplattform soll die Leistung der Nvidia Collective Communications Library (NCCL) für eine schnelle Kommunikation zwischen Nvidia GPUs nahezu verdoppeln. Die Plattform soll außerdem eine 1,6-fache Bandbreite im Vergleich zu Standard-Ethernet in großen KI-Umgebungen mit mehreren Mietern bieten. Ziel ist es, dass mehrere Rechenzentren miteinander kommunizieren und wie eine mächtige und besonders leistungsfähige GPU oder eine "KI-Superfabrik" (gemäß Nvidias Terminologie) agieren. Die Methode wird als „Scale-Across" beschrieben, ergänzend zu den bestehenden Scale-Up- und Scale-Out-Architekturen.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Weitere Artikel
Sam Altman: Verbesserungen für GPT-5 werden ausgerollt
Der Rollout für eine Aktualisierung von GPT-5 läuft. Damit will OpenAI auf Kritik an seinem neuen Modell reagieren, die sich
Dell aktualisiert AI Data Platform und stellt neue Server vor
ROUND ROCK, TX – 11. August 2025 – Dell Technologies hat Aktualisierungen für seine AI Data
KI, das Urheberrecht und Sicherheitslücken – KI und Tech to Go Folge 34
Die Themen: Fortschritte und Fähigkeiten von KI-Modellen GPT-5 ist nun verfügbar und wird als