Qualcomm betritt den Rechenzentrumsmarkt: Einführung von AI200- und AI250-Chips zur Herausforderung der Nvidia-Dominanz
Zusammenfassung
Qualcomm hat am Montag, den 27. Oktober 2025, US-Ostküstenzeit, die Einführung von zwei neuen KI-Chips, AI200 und AI250, bekannt gegeben und damit offiziell den Rechenzentrumsmarkt betreten, um mit Nvidia und AMD zu konkurrieren. Die beiden Chips sollen planmäßig 2026 bzw. 2027 kommerzialisiert und als Beschleunigerkarten sowie Rack-Systeme verkauft werden. Nach der Bekanntgabe dieser Nachricht stieg der Aktienkurs von Qualcomm an diesem Tag zeitweise um über 20 % und schloss mit einem Plus von 11 %.
Qualcomm Technologies hat am Montag, den 27. Oktober 2025, US-Ostküstenzeit, offiziell seine KI-Inferenz-optimierten Lösungen der nächsten Generation für Rechenzentren vorgestellt, darunter Beschleunigerkarten und Rack-Systeme, die auf den Chips Qualcomm AI200 und AI250 basieren. Dies markiert den offiziellen Eintritt des für Smartphone-Chips bekannten Unternehmens in den schnell wachsenden KI-Markt für Rechenzentren.
Produktspezifikationen und technische Merkmale
Der AI200 ist eine Lösung, die speziell für KI-Inferenz auf Rack-Ebene entwickelt wurde, um niedrige Gesamtbetriebskosten (TCO) und optimierte Leistung für große Sprachmodelle und multimodale Modellinferenzen zu bieten. Der Chip unterstützt 768 GB LPDDR-Speicher pro Karte und bietet so eine höhere Speicherkapazität bei geringeren Kosten.
Der fortschrittlichere AI250 wird eine innovative Speicherarchitektur auf Basis von Near-Memory-Computing nutzen, die im Vergleich zum AI200 eine über 10-fache effektive Speicherbandbreite bei gleichzeitig deutlich reduziertem Stromverbrauch bietet. Beide Chips basieren auf Qualcomms Hexagon-Architektur, der zugrunde liegenden Technologie der neuronalen Verarbeitungseinheiten (NPUs) in Qualcomms Consumer-System-on-Chips.
Beide Rack-Lösungen sind mit einem direkten Flüssigkeitskühlsystem zur Verbesserung der thermischen Effizienz ausgestattet, unterstützen PCIe-Horizontalskalierung und Ethernet-Vertikalskalierung, verfügen über vertrauliche Computing-Funktionen zur Sicherung von KI-Workloads und haben eine Rack-Leistungsaufnahme von 160 Kilowatt.
Marktpositionierung und Wettbewerbslandschaft
Qualcomms Rechenzentrums-Chips basieren auf der Hexagon-Neuronalen Verarbeitungseinheit, einer KI-Komponente in seinen Smartphone-Chips. Durga Malladi, General Manager für Qualcomms Rechenzentrums- und Edge-Geschäft, erklärte: „Wir wollten uns zunächst in anderen Bereichen beweisen, und sobald wir dort Stärke aufgebaut hatten, wurde der Eintritt in die Rechenzentrumsebene ziemlich einfach.“
Qualcomm gibt an, dass seine KI-Chips Vorteile in Bezug auf Stromverbrauch, Gesamtbetriebskosten und einen neuen Ansatz für die Speicherarchitektur im Vergleich zu anderen Beschleunigern bieten. Zu den Wettbewerbern des Unternehmens im Bereich der KI-Beschleuniger gehören Nvidias H100- und H200-Chips, AMDs Instinct MI300X-Beschleuniger sowie Intels Gaudi-Beschleuniger.
Qualcomm wird sowohl KI-Chips als auch andere Komponenten verkaufen, insbesondere für Hyperscale-Kunden, die dazu neigen, ihre Racks selbst zu entwerfen. Malladi sagte, dass andere KI-Chip-Unternehmen wie Nvidia oder AMD sogar Kunden für bestimmte Rechenzentrums-Komponenten von Qualcomm (wie z. B. Zentralprozessoren) werden könnten.
Erster Kunde und Kommerzialisierungsplan
Das saudi-arabische KI-Unternehmen Humain wird der erste Kunde für diese neuen Chips sein und plant, ab 2026 eine Rechenleistung von 200 Megawatt einzusetzen. Qualcomm plant, den AI200 ab 2026 und den AI250 ab 2027 auszuliefern und kündigte an, seine Produktlinie für Rechenzentrums-KI-Prozessoren jährlich zu aktualisieren.
Marktreaktion
Nach der Ankündigung schoss der Aktienkurs von Qualcomm am Montag zeitweise um über 20 % in die Höhe und schloss mit einem Plus von 11 %. Investoren begrüßten die Nachricht und trieben den Aktienkurs im Tagesverlauf zeitweise um 15 % nach oben.
Branchenhintergrund
Qualcomms Eintritt in den Rechenzentrumssektor markiert einen neuen Wettbewerb im am schnellsten wachsenden Markt der Technologiebranche: Geräte für neue KI-Server-Cluster. Laut Schätzungen von McKinsey werden bis 2030 fast 6,7 Billionen US-Dollar an Kapitalausgaben in Rechenzentren fließen, wovon der Großteil auf KI-Chip-basierte Systeme entfallen wird.
Die Branche wurde bisher von Nvidia dominiert, dessen GPUs bis heute über 90 % des Marktanteils halten und dessen Verkaufszahlen den Marktwert des Unternehmens auf über 4,5 Billionen US-Dollar ansteigen ließen. Nvidias Chips wurden zum Training von OpenAIs großen Sprachmodellen (LLMs) verwendet, die in ChatGPT zum Einsatz kommen.
Es ist erwähnenswert, dass dies nicht Qualcomms erster Versuch ist, in den Rechenzentrumsmarkt einzusteigen. Im Jahr 2017 kündigte das Unternehmen eine Zusammenarbeit mit Microsoft zur Entwicklung der Qualcomm Centriq 2400-Plattform an, doch das Projekt scheiterte schnell aufgrund des intensiven Wettbewerbs von Intel und AMD sowie interner Probleme (einschließlich einer Reihe von Klagen).
Bei dieser Rückkehr in den Rechenzentrumsmarkt verfolgt Qualcomm eine andere Strategie, die sich auf KI-Inferenz statt auf Allzweck-Computing konzentriert und auf seine jahrzehntelange Expertise bei mobilen stromsparenden Prozessoren setzt, um sich in diesem schnell expandierenden Markt einen Platz zu sichern.