Geld zurück Garantie Erfahrungen & Bewertungen zu Hardwarewartung.com eine Marke von Change-IT
  • OpenAI plant Einsatz der neuesten AMP Instinct GPUs

OpenAI plant Einsatz der neuesten AMP Instinct GPUs

Von |2025-06-16T13:12:30+00:0014.6.2025|

AMD GPUs werden OpenAIs Hardware-Portfolio ergänzen. Die neuen GPUs der Instinct MI350 Serie zeigen deutliche Leistungssteigerungen.

AMD hat in dieser Woche seine neuen GPUs der Instinct MI350 Serie eingeführt und einen Ausblick auf zukünftige Innovationen im Bereich der Künstlichen Intelligenz (KI) gegeben. Parallel hat OpenAI angekündigt, die neuen GPUs von AMD in seinem Hardwareportfolio einsetzen zu wollen.

Die AMD Instinct MI350 Serie: mehr Leistung und Kapazität

Die AMD Instinct MI350 Serie mit den Modellen Instinct MI350X und MI355X wurde am 12. Juni 2025 offiziell vorgestellt und befindet sich bereits in Produktion. Basierend auf der AMD CDNA™ 4 Architektur repräsentiert diese Generation laut AMD einen deutlichen Fortschritt in der KI-Rechenleistung. AMD gibt an, dass die MI350 Serie eine vierfache Erhöhung der KI-Rechenleistung und einen 35-fachen Sprung in der Inferenzleistung im Vergleich zur Vorgängergeneration erziele.

Ein wichtiges Merkmal dieser GPUs liegt in ihrer Speicherkapazität und Bandbreite. Die MI350X- und MI355X-GPUs sind jeweils mit 288 GB HBM3E-Arbeitsspeicher von Micron und Samsung Electronics ausgestattet und bieten eine Speicherbandbreite von bis zu 8 TB/s. Das gewährleistet einen hohen Datendurchsatz, sowohl für das Training als auch für die Inferenz von KI-Modellen.

Eine einzelne AMD Instinct MI355X GPU kann Spitzenleistungen von 78,6 TFLOPs bei FP64 und 5 PFLOPS bei FP16 erreichen (mit strukturierter Sparsity). Für spezifische KI-Workloads sind die Werte noch höher: 10,1 PFLOPS bei FP8 und sogar 20,1 PFLOPS bei FP4 (jeweils mit Structured Sparsity – eine Technik zur Erhöhung der Leistung durch Hinzufügen bestimmter Null-Muster in ein Modell oder einen Datensatz).

Die Implementierungsmöglichkeiten der MI350 Serie sind flexibel. Die Systeme unterstützen sowohl luftgekühlte als auch direkt flüssigkeitsgekühlte Konfigurationen. In einem luftgekühlten Rack können bis zu 64 GPUs eingesetzt werden, während in direkt flüssigkeitsgekühlten Racks bis zu 128 GPUs Platz finden, was eine Gesamtleistung von bis zu 2,6 ExaFLOPS bei FP4/FP6 ermöglicht.

Das Unternehmen gab auch einen Ausblick auf die nächste Generation: die AMD Instinct MI400 Serie, die für 2026 erwartet wird. Diese Serie verspreche einen „dramatischen Generationssprung in der Leistung“ mit bis zu 432 GB HBM4-Speicher, einer Speicherbandbreite von 19,6 TB/s und Spitzenleistungen von 40 PFLOPs bei FP4 und 20 PFLOPs bei FP8.

AMD MI 350 Specifications
Erfahren Sie mehr

Ihr Wartungsspezialist im DataCenter

Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

OpenAI will AMD GPUs verwenden

Ein Vertrauensbeweis für AMDs Fortschritte kam von Sam Altman, dem CEO von OpenAI. Während einer KI-Konferenz von AMD kündigte Altman an, dass OpenAI neue GPUs von AMD einsetzen werde. Altman zeigte sich beeindruckt von den technischen Daten der neuen Chips.

Die genaue Ausgestaltung der Partnerschaft ist derzeit noch unklar. OpenAI hat jedoch bereits seit dem letztem Jahr AMD-GPUs für Inferenzaufgaben auf Microsoft Azure eingesetzt. Es wurde auch bekannt, dass OpenAI Rückmeldungen zur Roadmap der zukünftigen MI400-Serie von AMD gegeben hat. Dieser Schritt zeigt eine strategische Diversifizierung für OpenAI, die neben der Nutzung von Nvidia-GPUs und der Entwicklung eigener KI-Chips (in Partnerschaft mit Broadcom und Microsofts Maia) nun auch verstärkt auf AMD setzt. Zeitgleich zur Ankündigung von OpenAI gab Oracle bekannt, einen Cluster mit über 130.000 AMD MI355X GPUs bereitstellen zu wollen.

Was denkt Hardwarewartung 24?

NVIDIA hält bereits zu lange ein beinahe unangefochtenes Monopol im GPU-Sektor, was zu überhöhten Preisen und fehlender Auswahl führte. Deswegen begrüßen wir den Schritt von OpenAI, verstärkt AMD-GPUs einzusetzen, ausdrücklich. Auch wenn zahlreiche Unternehmen wie Microsoft, Amazon, Google oder Meta an eigenen KI-Hardware-Lösungen arbeiten, bleibt die Auswahl an hochwertigen, leistungsfähigen GPUs für Enterprise-Kunden auf dem freien Markt begrenzt. Die Dominanz von NVIDIA beruht zum großen Teil auf deren proprietärer Entwicklungsplattform CUDA, mit der sie Entwickler und Unternehmen bislang effektiv an ihre Hardware gebunden haben.

AMD hat es technisch geschafft, NVIDIA mit seinen aktuellen Instinct GPUs der MI350-Serie nicht nur aufzuholen, sondern in bestimmten Bereichen der KI-Inferenzleistung sogar zu übertreffen. Dennoch hängt der tatsächliche Erfolg am Markt von der Entwicklerbasis und der Unterstützung für entsprechende Programmiertools ab. Genau hier setzt AMD mit seiner offenen Entwicklerplattform ROCm™ 7 an und tritt bewusst in Konkurrenz zum geschlossenen CUDA-Ökosystem von NVIDIA.

Die strategische Entscheidung von OpenAI, AMD durch die Partnerschaft zu stärken, ergibt auf mehreren Ebenen Sinn: Einerseits nutzt OpenAI die eigene Marktmacht, um mit AMD einen starken Konkurrenten aufzubauen und NVIDIAs dominanter Preisgestaltung entgegenzuwirken. Andererseits arbeitet OpenAI mit Broadcom und Microsoft bereits an eigenen KI-Chips und hat somit höchstes Interesse daran, dass sich ein alternatives offenes GPU-Ökosysteme wie ROCm etablieren. Langfristig könnte OpenAI daher selbst massiv profitieren, falls in Zukunft die Entwickler-Community auf offene Lösungen setzt, da OpenAIs eigenentwickelte KI-Hardware dann bereits auf ROCm oder ähnlichen offenen Standards aufbauen könnte.

Zusammengefasst ist der Schritt von OpenAI klug und strategisch vernünftig, da er den Wettbewerb stärkt, Preis- und Innovationsdruck bei NVIDIA aufbaut und langfristig eine nachhaltige, offene Konkurrenzplattform fördert—davon profitieren am Ende nicht nur OpenAI und AMD, sondern die gesamte KI-Branche.

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Weitere Artikel

Über den Autor:

Christian Kunz ist ein bekannter Experte für SEO, Suchmaschinen und die Optimierung für LLMs. Er war außerdem Koordinator für die IT eines Unternehmensbereichs in einem deutschen Internet-Konzern sowie IT-Projektmanager. LinkedIn-Profil von Christian: Christian Kunz
Nach oben