Geld zurück GarantieErfahrungen & Bewertungen zu Hardwarewartung.com eine Marke von Change-IT
  • Qualcomm AI200 und AI250

Qualcomm steigt in den Markt für KI-Chips ein

Von |2025-10-28T13:51:26+00:0028.10.2025|

Qualcomm hat die Veröffentlichung neuer KI-Beschleuniger-Chips angekündigt. Das bedeutet zusätzliche Konkurrenz für Nvidia, das den Markt für KI-Halbleiter bisher dominiert. Auch AMD wird als Akteur in diesem Markt angesehen; spätestens, seit OpenAI die Verwendung von AMD Chips in seinen Rechenzentren bekannt gegeben hat. Nach der Ankündigung stieg der Aktienkurs von Qualcomm deutlich.

Der Markteintritt in das Segment der KI-Chips stellt einen Kurswechsel für Qualcomm dar. Bisher lag der Fokus des Unternehmens auf Halbleitern für drahtlose Konnektivität und mobile Geräte, nicht auf Rechenzentren. Der Einstieg erfolgt in den am schnellsten wachsenden Markt der Technologiebranche: Ausrüstung für neue KI-fokussierte Serverfarmen. Eine Schätzung von McKinsey besagt, dass bis 2030 fast 6,7 Billionen US-Dollar in Rechenzentren investiert werden, wobei der Großteil auf Systeme fällt, die auf KI-Chips basieren.

Qualcomm plant die Modelle AI200 und AI250. Der AI200 soll 2026 in den Verkauf gehen, der AI250 ist für 2027 geplant. Beide Modelle können in einem System geliefert werden, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt. Damit gleicht sich Qualcomm Nvidia und AMD an, die ihre Grafikprozessoren (GPUs) ebenfalls in Full-Rack-Systemen anbieten. In solchen Systemen können bis zu 72 Chips als ein Computer fungieren.

Der Konzern konzentriert sich mit den Chips auf die Inferenz, also das Ausführen von KI-Modellen

Qualcomm AI250 und AI200 

Der Qualcomm AI250 zeichnet sich insbesondere durch eine innovative Speicherarchitektur aus, die auf Near-Memory Computing basiert. Diese Technologie liefert eine verbesserte Effizienz und Leistung für KI-Inferenz-Workloads, vor allem durch eine mehr als 10-fach höhere effektive Speicherbandbreite bei deutlich geringerem Stromverbrauch. Das ermöglicht beispielsweise den Einsatz für Disaggregated AI Inferencing und damit die Verteilung der Workloads.

Der Qualcomm AI200 wurde speziell als Rack-Level-KI-Inferenzlösung konzipiert, um eine niedrige TCO zu gewährleisten. Er ist optimiert für Large Language Model- und Multimodal Model-Inferenz und unterstützt 768 GB LPDDR pro Karte. 

Beide Rack-Lösungen sind für Skalierbarkeit und Sicherheit auf Unternehmensebene ausgelegt. Sie verfügen über eine direkte Flüssigkeitskühlung, nutzen PCIe zur Skalierung nach oben (scale up) und Ethernet zur Skalierung nach außen (scale out). Darüber hinaus bieten sie Confidential Computing für sichere KI-Workloads. Die Lösungen weisen eine Rack-Level-Leistungsaufnahme von 160 kW auf. Das ist vergleichbar mit der hohen Leistungsaufnahme einiger Nvidia-GPU-Racks. 

Die KI-Chips von Qualcomm basieren in Teilen auf Smartphone-Chips des Unternehmens, den sogenannten Hexagon Neural Processing Units (NPUs).

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Qualcomm wird die KI-Chips und andere Teile auch separat verkaufen. Das gilt insbesondere für Kunden wie Hyperscaler, die ihre eigenen Racks entwerfen.

Bisher dominiert Nvidia den Markt der KI-Chips. Nvidia GPUs haben aktuell einen Marktanteil von über 90 Prozent. Neben AMD entwickeln weitere Unternehmen, darunter Google, Amazon und Microsoft, ebenfalls eigene KI-Beschleuniger für ihre Cloud-Dienste.

Weitere Artikel

Über den Autor:

Christian Kunz ist ein bekannter Experte für SEO, Suchmaschinen und die Optimierung für LLMs. Er war außerdem Koordinator für die IT eines Unternehmensbereichs in einem deutschen Internet-Konzern sowie IT-Projektmanager. LinkedIn-Profil von Christian: Christian Kunz
Nach oben