マイクロソフト、Amazon Trainiumを3倍上回る性能向上を実現した先進のMaia 200 AIアクセラレーターチップを発表

January 29, 2026
マイクロソフト
3 min

ニュースサマリー

マイクロソフトは、NVIDIA製ハードウェアへの依存を減らし、クラウドインフラストラクチャ全体のAI推論能力を強化するための重要な進歩となる、第2世代AIアクセラレータチップ「Maia 200」を発表しました。2026年1月26日(米国東部時間)に発表されたこの製品は、マイクロソフトのカスタムシリコン戦略における主要なマイルストーンとなります。

マイクロソフト、TSMCの3nm技術で構築された革新的なAIチップ「Maia 200」を発表

ワシントン州レドモンド - マイクロソフトは2026年1月26日、最先端のAIアクセラレータチップ「Maia 200」の発売を発表し、AIハードウェア市場におけるNVIDIAの支配力に対する強力な競争相手としての地位を確立しました。第2世代カスタムAIプロセッサは、人工知能推論ワークロードに前例のないパフォーマンス向上をもたらすことを約束します。

技術仕様とパフォーマンス

Maia 200チップは、台湾積体電路製造(TSMC)の先進的な3ナノメートル製造プロセスで構築されており、AI処理能力において飛躍的な進歩を遂げています。このプロセッサは、業界の新たなベンチマークを設定する印象的な技術仕様を備えています。

1400億個以上のトランジスタを搭載したMaia 200は、FP4モードで最大10ペタフロップス、FP8精度で約5ペタフロップスを実行できる卓越した計算能力を提供します。これは、Amazonの第3世代Trainiumチップと比較して3倍のパフォーマンス向上であり、主要なベンチマークにおいてGoogleの第7世代Tensor Processing Unit(TPU)を上回ります。

このチップは、SKハイニックスから独占的に供給される216GBのHBM3E高帯域幅メモリを搭載し、毎秒7テラバイトのメモリ帯域幅を提供します。この膨大なメモリ容量は、64GBのHBM2Eしか使用しなかった前世代のMaiaから大幅なアップグレードとなります。さらに、このプロセッサは、最適化されたパフォーマンスのためにクラスターレベルおよびタイルレベルのプールに動的に分割できる272MBのオンチップSRAMを内蔵しています。

戦略的な市場ポジショニング

マイクロソフトのクラウド&AI担当エグゼクティブバイスプレジデントであるスコット・ガスリーは、このチップの経済的利点を強調し、Maia 200は現在の世代の代替品と比較して「1ドルあたりのパフォーマンスが30%向上」すると述べています。このコスト効率により、マイクロソフトはNVIDIAの高価なGPUソリューションと競合するクラウドプロバイダーのカスタムチップの両方に対して競争力のある立場に置かれます。

Maia 200は、特に推論や連鎖思考処理を含む大規模言語モデルなど、AI推論タスクに特化して最適化されています。トレーニングではなく推論に焦点を当てていることは、AIモデルの展開と実世界での応用への業界のシフトを反映しています。

展開と統合

マイクロソフトは、アイオワ州デモインにあるセントラルリージョンデータセンターでMaia 200チップの展開を開始しており、今後数週間でアリゾナ州フェニックスのウェスト3リージョンにも展開する予定です。これらのチップは、Microsoft 365 Copilot、OpenAIのGPT-5.2モデル、およびムスタファ・スレイマン率いるマイクロソフトのAIスーパーインテリジェンスチーム内の様々なプロジェクトを含む、重要なマイクロソフトサービスをサポートします。

同社はプレビュー版のソフトウェア開発キット(SDK)も導入しており、開発者、学術関係者、AI研究者が新しいハードウェア向けにモデルを最適化できるようになっています。この動きは、オリジナルのMaia 100の限定的な展開とは対照的に、マイクロソフトが内部ユースケースを超えてアクセスを拡大する意図を示しています。

インフラストラクチャとスケーラビリティ

Maia 200のアーキテクチャは、大規模なスケーラビリティをサポートしており、マイクロソフトは単一のクラスターで最大6,144個のチップを接続できます。InfiniBandではなくイーサネットベースのネットワーキングを利用するこの相互接続機能により、従来のGPUベースのソリューションと比較して、エネルギー消費の削減と総所有コストの低減が可能になります。

各サーバー構成には4つのMaia 200チップが含まれており、プロセッサは750ワットで動作します。これは、それぞれ1,200ワット以上を消費するNVIDIAのBlackwellチップよりも大幅に低いです。この電力効率により、空冷および液冷の両方のデータセンター環境での展開が可能になります。

業界の文脈と競争

Maia 200の発売は、主要なクラウドプロバイダーが独自のAIプロセッサを開発するという、高まる傾向を激化させています。Googleはほぼ10年前にTPUラインナップでこのアプローチを開拓し、Amazonは第3世代Trainiumチップに進歩し、第4世代を開発中です。

TrendForceの分析によると、ASICベースのAIサーバーは2026年までに市場の27.8%を占めると予測されており、2023年以降で最高のシェアとなります。この傾向は、コスト管理と特定のAIワークロードのパフォーマンス最適化におけるカスタムシリコンの戦略的重要性​​を反映しています。

メモリサプライチェーンのダイナミクス

HBM3Eメモリ供給におけるSKハイニックスとの独占的なパートナーシップは、競争環境に新たな次元を加えます。業界筋によると、この取り決めは、韓国のメモリメーカーであるSKハイニックスとサムスン電子との間の競争を激化させる可能性があり、サムスンはGoogleのTPU製品でより大きなHBM供給シェアを握っていると報じられています。

将来のロードマップ

Bloombergの報道によると、マイクロソフトはすでにMaia 200の後継機であるMaia 300(仮称)を設計しており、カスタムAIチップ分野で競争力を維持するという同社のコミットメントを示しています。さらに、マイクロソフトはOpenAIとのパートナーシップを通じて戦略的な柔軟性を維持しており、OpenAIの新しいチップ設計へのアクセスを提供する可能性があります。

市場への影響と見通し

Maia 200の発売は、マイクロソフトの第2四半期決算発表の準備と重なり、この発表の戦略的なタイミングを強調しています。同社のより広範なインフラストラクチャ拡張には、ウィスコンシン州マウントプレザントに15の追加データセンターを建設する承認が含まれており、OpenAIおよびエンタープライズクライアント向けのクラウドおよびAIサービスをサポートするために130億ドル以上の投資が行われます。

マイクロソフトの株価は、この発表に好意的に反応し、2026年1月26日には1%以上上昇して取引され、同社のAIインフラストラクチャ戦略とクラウドサービス利益率の改善の可能性に対する投資家の信頼を反映しました。

結論

Maia 200は、マイクロソフトがNVIDIAのAIハードウェアの優位性に挑戦し、次のAIインフラストラクチャ競争のフェーズに向けて同社を位置づけるための最も野心的な試みです。印象的な技術仕様、コスト優位性、およびマイクロソフトのエコシステム全体での戦略的な展開により、このチップはカスタムAIアクセラレータ開発の新時代を告げています。

AI業界が成熟し、コストがますます重要になるにつれて、マイクロソフトのMaia 200は、従来のGPUベースのソリューションに代わる魅力的な選択肢を提供し、エンタープライズAIインフラストラクチャにおける競争力学を再構築する可能性があります。