Nvidia hat die Einführung von Nvidia DGX Cloud Lepton bekannt gegeben, einer neuen KI-Plattform mit einer Art Marktplatz für Rechenleistung. Die Plattform soll Entwickler, die an fortschrittlicher agentischer und physischer KI arbeiten, mit einem globalen Ökosystem von Cloud-Anbietern verbinden und ihnen Zugang zu Zehntausenden von Grafikprozessoren (GPUs) zu ermöglichen.
Die DGX Cloud Lepton-Plattform wurde geschaffen, um die wachsende Nachfrage nach KI-Rechenleistung zu bedienen. Sie ermöglicht es Entwicklern, GPU-Kapazitäten in bestimmten geografischen Regionen flexibel zu nutzen, sowohl für kurzfristige als auch für langfristige Anwendungen. Das unterstützt strategische sowie länderspezifische Anforderungen nach Souveränität für Daten und Anwendungen.
Marktplatz für den Zugriff auf Tausende GPUs
Eine Reihe von Nvidia Cloud Partnern (NCPs) wird über DGX Cloud Lepton GPUs bereitstellen. Dazu gehören CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nebius, Nscale, Softbank Corp. und Yotta Data Services. Sie werden dort Nvidia Blackwell-GPUs sowie andere Nvidia-Architekturen zur Verfügung stellen. Laut Nvidia soll der Marktplatz Zugang zu Zehntausenden von GPUs bieten.
Jensen Huang, Gründer und CEO von Nvidia, beschreibt die Plattform als Bindeglied zwischen Nvidias Netzwerk globaler GPU-Cloud-Anbieter und KI-Entwicklern. Er betonte das gemeinsame Ziel, mit den NCPs eine „planetare KI-Fabrik“ zu errichten.
Die Plattform ist tief in den Nvidia Software-Stack integriert. Dazu gehören wichtige Bausteine wie die Nvidia NIM und NeMo Microservices, Nvidia Blueprints und Nvidia Cloud Functions. Die Integration soll die Entwicklung und Bereitstellung von KI-Anwendungen beschleunigen und vereinfachen.
Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Für Cloud-Anbieter verfügt DGX Cloud Lepton über spezielle Management-Software, die Echtzeit-Diagnosen zum GPU-Status liefert und die Ursachenanalyse bei Problemen automatisiert, was manuelle Eingriffe reduziert und Ausfallzeiten minimiert. Zu den wesentlichen Vorteilen der Plattform für Entwickler zählen eine verbesserte Produktivität und Flexibilität durch eine einheitliche Erfahrung über Entwicklung, Training und Inferenz hinweg. Auch die Möglichkeit, Kapazitäten direkt über den Marktplatz zu kaufen oder eigene Cluster einzubinden, erhöht die Flexibilität. Die Plattform ermöglicht zudem eine reibungslose Bereitstellung von KI-Anwendungen über Multi-Cloud- und Hybridumgebungen mit geringem Betriebsaufwand.
Agilität und Datenhoheit werden durch schnellen regionalen Zugang zu GPU-Ressourcen unterstützt, während eine prognostizierbare Leistung auf Enterprise-Niveau für Konsistenz sorgen soll.
Entwickler haben bereits jetzt die Möglichkeit, sich für den frühen Zugang zu Nvidia DGX Cloud Lepton anzumelden.
Nvidia Exemplar Clouds
Parallel zur Vorstellung von Lepton kündigte Nvidia auch die Nvidia Exemplar Clouds an. Diese Initiative soll NCPs dabei unterstützen, Sicherheit, Benutzerfreundlichkeit, Leistung und Ausfallsicherheit ihrer Angebote zu verbessern, indem sie auf Nvidias Expertise, Referenzhardware und -software sowie Tools für den Betrieb zurückgreifen. Yotta Data Services ist der erste NCP in der Asien-Pazifik-Region, der sich dieser Initiative angeschlossen hat.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
OpenAI eröffnet erstes Büro in Deutschland in München
München wird zur Heimat des ersten deutschen Büros von OpenAI. Das Unternehmen baut damit seine globale Präsenz weiter aus.
Cloud-Repatriation: Rückkehr zur On-Premises-Umgebung gewinnt stark an Fahrt
Immer mehr Unternehmen beginnen, ihre IT-Strategie kritisch zu hinterfragen, insbesondere wenn es um die Platzierung ihrer Workloads zwischen
OpenAI stattet KI-Agent ‘Operator’ mit stärkerem Modell aus
OpenAI stattet seinen KI-Agenten namens Operator mit einem aktualisierten und fortschrittlicheren KI-Modell aus. Operator kann Benutzeranfragen durch das autonome