クアルコム、データセンターに進出:AI200とAI250チップを発表し、NVIDIAの主導的地位に挑戦

October 28, 2025
Qualcomm
2 min

概要

クアルコムは米国東部時間2025年10月27日月曜日、2種類の新型AIチップ「AI200」と「AI250」を発表し、データセンター市場への本格参入を表明、NVIDIAやAMDとの競争に挑む。これらのチップはそれぞれ2026年と2027年に商用化が予定されており、アクセラレーターカードおよびラックレベルシステムとして販売される。この発表後、クアルコムの株価は当日一時20%以上急騰し、終値では11%上昇した。


クアルコム・テクノロジーズは米国東部時間2025年10月27日月曜日、Qualcomm AI200およびAI250チップをベースとしたアクセラレーターカードとラックシステムを含む、データセンター向け次世代AI推論最適化ソリューションを正式発表した。これは、スマートフォンチップで知られる同社が、急速に成長するデータセンターAI市場に本格的に参入したことを意味する。

製品仕様と技術的特徴

AI200は、ラックレベルのAI推論向けに設計されたソリューションであり、大規模言語モデル(LLM)およびマルチモーダルモデルの推論に対し、低い総所有コスト(TCO)と最適化された性能を提供することを目指す。このチップは、カードあたり768GBのLPDDRメモリをサポートし、より高いメモリ容量と低コストを実現する。

より高度なAI250は、ニアメモリコンピューティングに基づく革新的なメモリアーキテクチャを採用し、AI200と比較して10倍以上の実効メモリ帯域幅を提供すると同時に、消費電力を大幅に削減する。両チップは、クアルコムのHexagonアーキテクチャをベースとしており、このアーキテクチャは、クアルコムのコンシューマー向けSoCにおけるニューラルプロセッシングユニット(NPU)の基盤技術である。

両方のラックソリューションは、熱効率を高めるために直接液冷システムを搭載し、PCIe横方向スケーリングとイーサネット縦方向スケーリングをサポートする。AIワークロードのセキュリティを確保するための機密コンピューティング機能を備え、ラックレベルの消費電力は160キロワットである。

市場ポジショニングと競争環境

クアルコムのデータセンター向けチップは、同社のスマートフォンチップに搭載されているAIコンポーネントであるHexagonニューラルプロセッシングユニットをベースとしている。クアルコムのデータセンターおよびエッジビジネス担当ゼネラルマネージャー、ドゥルガ・マラディ氏は次のように述べた。「まず他の分野で自らを証明したかった。そこで実力を確立すれば、データセンター層への参入はかなり容易になる」。

クアルコムは、同社のAIチップが消費電力、総所有コスト、新しいメモリアーキテクチャのアプローチにおいて、他のアクセラレーターと比較して優位性があると述べている。同社のAIアクセラレーターの競合には、NVIDIAのH100およびH200チップ、AMDのInstinct MI300Xアクセラレーター、そしてIntelのGaudiアクセラレーターが含まれる。

クアルコムは、AIチップとその他の部品を同時に販売する予定であり、特にラックを自社で設計する傾向のあるハイパースケール顧客をターゲットとしている。マラディ氏は、NVIDIAやAMDなどの他のAIチップ企業が、クアルコムの特定のデータセンター部品(中央処理装置など)の顧客になる可能性さえあると述べた。

最初の顧客と商用化計画

サウジアラビアのAI企業Humainが、これらの新チップの最初の顧客となり、2026年から200メガワットのコンピューティング能力を導入する計画である。クアルコムは、AI200を2026年から、AI250を2027年からそれぞれ出荷開始する予定であり、今後毎年、データセンター向けAIプロセッサーの製品ラインを更新すると述べている。

市場の反応

この発表後、クアルコムの株価は月曜日に一時20%以上急騰し、終値では11%上昇した。投資家はこのニュースを歓迎し、取引時間中には同社株価を一時15%押し上げた。

業界の背景

クアルコムのデータセンター分野への参入は、テクノロジー業界で最も急速に成長している市場、すなわち新型AIサーバークラスター向け機器における新たな競争を意味する。マッキンゼーの推定によると、2030年までに約6.7兆ドルの設備投資がデータセンターに投入され、その大部分がAIチップベースのシステムに充てられるという。

この業界はNVIDIAが支配しており、そのGPUはこれまでに90%以上の市場シェアを占め、売上高は同社の時価総額を4.5兆ドル以上に押し上げている。NVIDIAのチップは、OpenAIのGPT大規模言語モデルのトレーニングに使用されており、これらのモデルはChatGPTに活用されている。

注目すべきは、クアルコムがデータセンター市場への参入を試みたのは今回が初めてではないということである。2017年、同社はMicrosoftと協力してQualcomm Centriq 2400プラットフォームを開発すると発表したが、IntelやAMDからの激しい競争、および一連の訴訟を含む社内問題により、このプロジェクトはすぐに失敗に終わった。

今回のデータセンター市場への再参入において、クアルコムは異なる戦略を採用し、汎用コンピューティングではなくAI推論に焦点を当てている。そして、モバイル低消費電力プロセッサーにおける数十年にわたる専門知識を武器に、この急速に拡大する市場での地位確立を目指している。