Intel hat drei neue Prozessoren der Xeon 6 Familie mit Performance-Kernen (P-Kernen) vorgestellt. Die Neuzugänge sind speziell darauf ausgelegt, die Leistung von GPU-basierter KI zu maximieren.
Die neuen Intel CPUs integrieren Intels Priority Core Turbo (PCT) und Speed Select Technology – Turbo Frequency (SST-TF). Laut Intel stellt die Kombination von PCT und SST-TF einen bedeutenden Fortschritt für die mögliche Leistung von KI-Systemen dar. Sie erlaubt die bestmögliche Verteilung der CPU-Ressourcen über eine dynamische Priorisierung von Kernen, die dann mit höheren Frequenzen laufen können. Gleichzeitig arbeiten Kerne mit niedrigerer Priorität auf ihrer Basisfrequenz. Diese Fähigkeit ist entscheidend für KI-Workloads, die eine sequentielle oder serielle Verarbeitung erfordern, weil sie dazu beiträgt, GPUs schneller mit Daten zu versorgen und die Gesamteffizienz des Systems zu steigern.
Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Einsatz in Nvidia DGX B300
Einer der neu vorgestellten Prozessoren, der Intel Xeon 6776P, kommt bereits als Host-CPU im Nvidia DGX B300 System zum Einsatz. Die CPU spielt eine wichtige Rolle bei der Verwaltung, Orchestrierung und Unterstützung des KI-beschleunigten Systems. Dank seiner robusten Speicherbandbreite und -kapazität kann der Xeon 6776P den wachsenden Anforderungen von KI-Modellen und Datensätzen besser entsprechen.
Die Intel Xeon 6 Prozessoren mit P-Kernen bieten laut Intel branchenführende Eigenschaften für KI-Systeme. Dazu gehören bis zu 128 P-Kerne pro CPU, die eine ausgeglichene Verteilung der Arbeitslast für intensive KI-Aufgaben gewährleisten. Sie bieten zudem eine hohe Speicherleistung, die in Konfigurationen mit hoher Kapazität bis zu 30 Prozent schneller sein kann als bei Wettbewerbern. Das wird durch Unterstützung für Technologien wie Multi-Capacity Rank Dual In-Line Memory Modules (MRDIMMs) und Compute Express Link ermöglicht. Die Prozessoren verfügen auch über eine verbesserte I/O-Leistung mit bis zu 20 Prozent mehr PCIe-Lanes im Vergleich zu früheren Xeon Prozessoren, was schnellere Datentransfers für I/O-intensive Aufgaben ermöglicht. Darüber hinaus wird die FP16-Gleitkomma-Arithmetik über Intel Advanced Matrix Extensions unterstützt, was die Datenvorverarbeitung und kritische CPU-Aufgaben in KI-Workloads effizienter gestaltet.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
OpenAI eröffnet erstes Büro in Deutschland in München
München wird zur Heimat des ersten deutschen Büros von OpenAI. Das Unternehmen baut damit seine globale Präsenz weiter aus.
Cloud-Repatriation: Rückkehr zur On-Premises-Umgebung gewinnt stark an Fahrt
Immer mehr Unternehmen beginnen, ihre IT-Strategie kritisch zu hinterfragen, insbesondere wenn es um die Platzierung ihrer Workloads zwischen
OpenAI stattet KI-Agent ‘Operator’ mit stärkerem Modell aus
OpenAI stattet seinen KI-Agenten namens Operator mit einem aktualisierten und fortschrittlicheren KI-Modell aus. Operator kann Benutzeranfragen durch das autonome