Intel hat drei neue Prozessoren der Xeon 6 Familie mit Performance-Kernen (P-Kernen) vorgestellt. Die Neuzugänge sind speziell darauf ausgelegt, die Leistung von GPU-basierter KI zu maximieren.
Die neuen Intel CPUs integrieren Intels Priority Core Turbo (PCT) und Speed Select Technology – Turbo Frequency (SST-TF). Laut Intel stellt die Kombination von PCT und SST-TF einen bedeutenden Fortschritt für die mögliche Leistung von KI-Systemen dar. Sie erlaubt die bestmögliche Verteilung der CPU-Ressourcen über eine dynamische Priorisierung von Kernen, die dann mit höheren Frequenzen laufen können. Gleichzeitig arbeiten Kerne mit niedrigerer Priorität auf ihrer Basisfrequenz. Diese Fähigkeit ist entscheidend für KI-Workloads, die eine sequentielle oder serielle Verarbeitung erfordern, weil sie dazu beiträgt, GPUs schneller mit Daten zu versorgen und die Gesamteffizienz des Systems zu steigern.
Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Einsatz in Nvidia DGX B300
Einer der neu vorgestellten Prozessoren, der Intel Xeon 6776P, kommt bereits als Host-CPU im Nvidia DGX B300 System zum Einsatz. Die CPU spielt eine wichtige Rolle bei der Verwaltung, Orchestrierung und Unterstützung des KI-beschleunigten Systems. Dank seiner robusten Speicherbandbreite und -kapazität kann der Xeon 6776P den wachsenden Anforderungen von KI-Modellen und Datensätzen besser entsprechen.
Die Intel Xeon 6 Prozessoren mit P-Kernen bieten laut Intel branchenführende Eigenschaften für KI-Systeme. Dazu gehören bis zu 128 P-Kerne pro CPU, die eine ausgeglichene Verteilung der Arbeitslast für intensive KI-Aufgaben gewährleisten. Sie bieten zudem eine hohe Speicherleistung, die in Konfigurationen mit hoher Kapazität bis zu 30 Prozent schneller sein kann als bei Wettbewerbern. Das wird durch Unterstützung für Technologien wie Multi-Capacity Rank Dual In-Line Memory Modules (MRDIMMs) und Compute Express Link ermöglicht. Die Prozessoren verfügen auch über eine verbesserte I/O-Leistung mit bis zu 20 Prozent mehr PCIe-Lanes im Vergleich zu früheren Xeon Prozessoren, was schnellere Datentransfers für I/O-intensive Aufgaben ermöglicht. Darüber hinaus wird die FP16-Gleitkomma-Arithmetik über Intel Advanced Matrix Extensions unterstützt, was die Datenvorverarbeitung und kritische CPU-Aufgaben in KI-Workloads effizienter gestaltet.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
#8 KI und Tech To Go – Der Praxis-Pitch
Elon Musks Open AI-Kaufversuch, KI-Chips von OpenAI und von der Thousand Brains Theory zur AGI Warum spielt Neurowissenschaft
OpenAI baut eigene KI-Chips. Erstes Design für dieses Jahr geplant
OpenAI arbeitet daran, seine Abhängigkeit von Nvidia GPUs zu reduzieren, indem es einen eigenen KI-Chip entwickelt. Das Unternehmen steht kurz
#7 KI und Tech To Go – Der Praxis-Pitch
Gespräch mit Dr. Torsten Beyer - dem CO₂-Doc und Autor von „Nachhaltige Websites" Green IT - die wachsende
Zum Inhalt springen


