Qualcomm hat die Veröffentlichung neuer KI-Beschleuniger-Chips angekündigt. Das bedeutet zusätzliche Konkurrenz für Nvidia, das den Markt für KI-Halbleiter bisher dominiert. Auch AMD wird als Akteur in diesem Markt angesehen; spätestens, seit OpenAI die Verwendung von AMD Chips in seinen Rechenzentren bekannt gegeben hat. Nach der Ankündigung stieg der Aktienkurs von Qualcomm deutlich.
Der Markteintritt in das Segment der KI-Chips stellt einen Kurswechsel für Qualcomm dar. Bisher lag der Fokus des Unternehmens auf Halbleitern für drahtlose Konnektivität und mobile Geräte, nicht auf Rechenzentren. Der Einstieg erfolgt in den am schnellsten wachsenden Markt der Technologiebranche: Ausrüstung für neue KI-fokussierte Serverfarmen. Eine Schätzung von McKinsey besagt, dass bis 2030 fast 6,7 Billionen US-Dollar in Rechenzentren investiert werden, wobei der Großteil auf Systeme fällt, die auf KI-Chips basieren.
Qualcomm plant die Modelle AI200 und AI250. Der AI200 soll 2026 in den Verkauf gehen, der AI250 ist für 2027 geplant. Beide Modelle können in einem System geliefert werden, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt. Damit gleicht sich Qualcomm Nvidia und AMD an, die ihre Grafikprozessoren (GPUs) ebenfalls in Full-Rack-Systemen anbieten. In solchen Systemen können bis zu 72 Chips als ein Computer fungieren.
Der Konzern konzentriert sich mit den Chips auf die Inferenz, also das Ausführen von KI-Modellen
Qualcomm AI250 und AI200
Der Qualcomm AI250 zeichnet sich insbesondere durch eine innovative Speicherarchitektur aus, die auf Near-Memory Computing basiert. Diese Technologie liefert eine verbesserte Effizienz und Leistung für KI-Inferenz-Workloads, vor allem durch eine mehr als 10-fach höhere effektive Speicherbandbreite bei deutlich geringerem Stromverbrauch. Das ermöglicht beispielsweise den Einsatz für Disaggregated AI Inferencing und damit die Verteilung der Workloads.
Der Qualcomm AI200 wurde speziell als Rack-Level-KI-Inferenzlösung konzipiert, um eine niedrige TCO zu gewährleisten. Er ist optimiert für Large Language Model- und Multimodal Model-Inferenz und unterstützt 768 GB LPDDR pro Karte.
Beide Rack-Lösungen sind für Skalierbarkeit und Sicherheit auf Unternehmensebene ausgelegt. Sie verfügen über eine direkte Flüssigkeitskühlung, nutzen PCIe zur Skalierung nach oben (scale up) und Ethernet zur Skalierung nach außen (scale out). Darüber hinaus bieten sie Confidential Computing für sichere KI-Workloads. Die Lösungen weisen eine Rack-Level-Leistungsaufnahme von 160 kW auf. Das ist vergleichbar mit der hohen Leistungsaufnahme einiger Nvidia-GPU-Racks.
Die KI-Chips von Qualcomm basieren in Teilen auf Smartphone-Chips des Unternehmens, den sogenannten Hexagon Neural Processing Units (NPUs).
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Qualcomm wird die KI-Chips und andere Teile auch separat verkaufen. Das gilt insbesondere für Kunden wie Hyperscaler, die ihre eigenen Racks entwerfen.
Bisher dominiert Nvidia den Markt der KI-Chips. Nvidia GPUs haben aktuell einen Marktanteil von über 90 Prozent. Neben AMD entwickeln weitere Unternehmen, darunter Google, Amazon und Microsoft, ebenfalls eigene KI-Beschleuniger für ihre Cloud-Dienste.
Weitere Artikel
OpenAI und Oracle sollen Cloud-Computing-Vertrag über 300 Milliarden Dollar geschlossen haben
OpenAI soll einen umfassenden Cloud-Computing-Vertrag mit Oracle abgeschlossen haben, der sich auf mutmaßlich 300 Milliarden US-Dollar beläuft. OpenAI würde
Engpässe im spanischen Stromnetz beeinträchtigen den Ausbau von Rechenzentren
Spaniens Stromnetz stößt an seine Kapazitätsgrenzen, was weitreichende Folgen für die Industrie und den Ausbau von Rechenzentren hat. Im Jahr
Quantencomputer endlich verständlich: Die komplexeste Technologie der Welt einfach erklärt
Stellen Sie sich vor, Sie könnten alle möglichen Lösungen eines Problems gleichzeitig durchprobieren. Was nach Science-Fiction klingt, ist das
Zum Inhalt springen



