Qualcomm entre sur le marché des centres de données : lancement des puces AI200 et AI250 pour défier la domination de Nvidia
Résumé
Qualcomm a annoncé le lundi 27 octobre 2025, heure de l'Est, le lancement de deux nouvelles puces d'intelligence artificielle, l'AI200 et l'AI250, marquant ainsi son entrée officielle sur le marché des centres de données pour concurrencer Nvidia et AMD. Ces deux puces, dont la commercialisation est prévue respectivement en 2026 et 2027, seront vendues sous forme de cartes accélératrices et de systèmes au niveau du rack. Suite à cette annonce, le cours de l'action de Qualcomm a grimpé de plus de 20 % à un moment donné ce jour-là, clôturant en hausse de 11 %.
Qualcomm Technologies a officiellement dévoilé le lundi 27 octobre 2025, heure de l'Est, ses solutions d'inférence d'IA de nouvelle génération optimisées pour les centres de données, incluant des cartes accélératrices et des systèmes au niveau du rack basés sur les puces Qualcomm AI200 et AI250. Cela marque l'entrée officielle de la société, connue pour ses puces de smartphones, sur le marché en pleine croissance de l'IA pour les centres de données.
Spécifications des produits et caractéristiques techniques
L'AI200 est une solution conçue spécifiquement pour l'inférence d'IA au niveau du rack, visant à offrir un faible coût total de possession et des performances optimisées pour les grands modèles linguistiques (LLM) et les modèles multimodaux. Chaque carte prend en charge 768 Go de mémoire LPDDR, offrant une capacité mémoire accrue et des coûts réduits.
L'AI250, plus avancé, intégrera une architecture mémoire innovante basée sur le calcul près de la mémoire, offrant plus de 10 fois la bande passante mémoire effective par rapport à l'AI200, tout en réduisant considérablement la consommation d'énergie. Les deux puces sont basées sur l'architecture Hexagon de Qualcomm, la technologie fondamentale des unités de traitement neuronal (NPU) présentes dans les systèmes sur puce grand public de Qualcomm.
Les deux solutions de rack sont équipées de systèmes de refroidissement liquide direct pour une efficacité thermique accrue, prennent en charge la mise à l'échelle horizontale PCIe et la mise à l'échelle verticale Ethernet, intègrent des capacités de calcul confidentiel pour sécuriser les charges de travail d'IA, et affichent une consommation électrique de 160 kilowatts au niveau du rack.
Positionnement sur le marché et paysage concurrentiel
Les puces pour centres de données de Qualcomm sont basées sur son unité de traitement neuronal Hexagon, un composant d'IA présent dans ses puces de smartphones. Durga Malladi, directeur général des activités centres de données et périphérie de Qualcomm, a déclaré : "Nous voulions d'abord faire nos preuves dans d'autres domaines, et une fois que nous y aurions établi notre force, il deviendrait assez facile d'entrer dans la couche des centres de données."
Qualcomm affirme que ses puces d'IA présentent des avantages par rapport aux autres accélérateurs en termes de consommation d'énergie, de coût total de possession et de nouvelle approche de l'architecture mémoire. Les concurrents de la société sur le marché des accélérateurs d'IA incluent les puces H100 et H200 de Nvidia, l'accélérateur Instinct MI300X d'AMD, ainsi que l'accélérateur Gaudi d'Intel.
Qualcomm vendra simultanément ses puces d'IA et d'autres composants, en particulier aux clients hyperscale qui préfèrent concevoir leurs propres racks. Malladi a indiqué que d'autres sociétés de puces d'IA comme Nvidia ou AMD pourraient même devenir des clients de Qualcomm pour certains composants de centres de données, tels que les processeurs centraux (CPU).
Premier client et plans de commercialisation
La société saoudienne d'IA Humain sera le premier client de ces nouvelles puces, prévoyant de déployer 200 mégawatts de puissance de calcul à partir de 2026. Qualcomm prévoit de commencer à livrer l'AI200 et l'AI250 respectivement en 2026 et 2027, et a déclaré qu'elle mettrait à jour sa gamme de processeurs d'IA pour centres de données chaque année à l'avenir.
Réaction du marché
Suite à cette annonce, le cours de l'action de Qualcomm a grimpé de plus de 20 % à un moment donné lundi, clôturant en hausse de 11 %. Les investisseurs ont bien accueilli cette nouvelle, propulsant le cours de l'action de la société jusqu'à 15 % en cours de séance.
Contexte de l'industrie
L'entrée de Qualcomm sur le marché des centres de données marque une nouvelle concurrence sur le marché à la croissance la plus rapide du secteur technologique : les équipements destinés aux nouveaux clusters de serveurs d'IA. Selon les estimations de McKinsey, près de 6 700 milliards de dollars de dépenses en capital (CapEx) seront investis dans les centres de données d'ici 2030, dont la majeure partie sera consacrée aux systèmes basés sur des puces d'IA.
Ce secteur a été dominé par Nvidia, dont les GPU détiennent jusqu'à présent plus de 90 % des parts de marché, et dont les ventes ont propulsé la capitalisation boursière de la société à plus de 4 500 milliards de dollars. Les puces de Nvidia sont utilisées pour entraîner les grands modèles linguistiques GPT d'OpenAI, qui sont appliqués dans ChatGPT.
Il est à noter que ce n'est pas la première fois que Qualcomm tente de pénétrer le marché des centres de données. En 2017, la société avait annoncé un partenariat avec Microsoft pour développer la plateforme Qualcomm Centriq 2400, mais le projet a rapidement échoué en raison de la concurrence féroce d'Intel et d'AMD, ainsi que de problèmes internes à l'entreprise (y compris une série de litiges).
Pour ce retour sur le marché des centres de données, Qualcomm a adopté une stratégie différente, en se concentrant sur l'inférence d'IA plutôt que sur le calcul à usage général, et en s'appuyant sur ses décennies d'expérience dans les processeurs mobiles à faible consommation, s'efforce de se tailler une place sur ce marché en pleine expansion.