トロントのTaalasがハードワイヤードAIチップを発表、モデルを直接シリコンに焼き付ける

February 24, 2026
Taalas
3 min

ニュースサマリー

トロント拠点のAIチップスタートアップであるTaalasは、2月19日(金)午前11時2分(米国東部標準時)にステルスモードを正式に解除し、デビュー製品を発表しました。同社は1億6900万ドルの資金調達を発表し、初のハードワイヤードAIチップ「HC1」をローンチしました。

NvidiaのAI支配への新たな挑戦者

トロント拠点のAIチップスタートアップTaalasは、木曜日(米国東部標準時)に画期的な初の製品を発表し、1億6900万ドルの資金調達を発表すると同時に、MetaのオープンソースLlama 3.1 8B言語モデルを実行するために特別に設計された革新的な「ハードワイヤード」AIプロセッサであるHC1を公開しました。この発表により、Taalasの外部からの総資金調達額は約2億1900万ドルに達し、出資者にはQuiet Capital、Fidelity、ベテラン半導体投資家のPierre Lamondが含まれています。

この発表は、NvidiaがAI推論ライバルのGroqから知的財産をライセンス供与する200億ドルの画期的な契約を締結したわずか数週間後にAIハードウェアコミュニティに波紋を広げました。この動きは、特殊AIシリコンスタートアップに対する投資家の熱意を再燃させています。


HC1チップ:シリコンへの知能のハードワイヤリング

Taalasのテクノロジーの中核は、AIモデルがハードウェア上でどのように実行されるかについての根本的な再考です。AIコンピューティングの主力である従来のGPUは、「命令セットアーキテクチャ」(ISA)に依存しており、これは計算とメモリを物理的に分離します。大規模言語モデルがクエリを処理するたびに、チップはモデルの重みをハイバンド幅メモリ(HBM)から処理コアに繰り返し転送する必要があります。Taalasはこれを「メモリの壁」と呼び、このデータ移動の負担が最新のAIデータセンターの**電力消費のほぼ90%**を占めると推定しています。

Taalasのソリューションは、メモリフェッチサイクルを完全に排除することです。Taalasは、チップ上でモデルを実行するのではなく、モデルをチップに「焼き込む」ことで、AIモデルの重みとアーキテクチャを物理的にシリコンの金属層に直接印刷します。その結果、モデル自体がハードウェアとなるプロセッサが誕生します。

TSMCの6ナノメートル(N6)プロセスノードで製造されたHC1は、Llama 3.1 8Bにのみ最適化されています。Taalasによると、Nvidiaの主力H200 GPUと比較して約73倍高速な毎秒17,000以上の出力トークン/ユーザーを達成しながら、消費電力は10分の1に抑えられています。同社はまた、このチップの製造コストがNvidia、Groq、SambaNova、Cerebrasの同等製品と比較して20分の1であると主張しています。


重みからシリコンへ、2ヶ月で

Taalasの最も説得力のある技術的主張の1つは、生産速度です。従来のカスタムAIチップ開発は、6ヶ月以上かかることがあります。対照的にTaalasは、TSMCとのパートナーシップにより、約2ヶ月で任意のAIモデルの重みを展開可能なシリコンに変換できると述べています。

その秘密は、設計の経済性にあります。各モデルのためにチップ全体を再設計するのではなく、Taalasはチップを構成する約100の金属層のうちわずか2層を変更するだけです。これにより、製造時間とコストが劇的に削減され、これまでカスタムハードウェアを購入できなかった組織でもカスタムAIシリコンを利用できるようになります。

この迅速なイテレーションにより、Taalasが「季節的な」ハードウェアサイクルと呼ぶものが可能になります。企業は春に最先端モデルを微調整し、夏までには数千の特殊推論チップを展開できるようになります。


少人数のチームと大胆なビジョン

Taalasのストーリーで最も注目すべき点は、その効率性かもしれません。HC1は、わずか24人のエンジニアからなるチームによって、総開発コスト3000万ドルで市場に投入されました。これは、カスタムシリコン事業に通常必要とされる数億ドルと比較してごく一部です。

同社は、AIチップ企業Tenstorrentの共同創業者であり、AMDとNvidiaでアーキテクトを務めたLjubisa Bajic氏と、エンジニアのDrago Ignjatovic氏、Lejla Bajic氏によって2023年8月に設立されました。Taalasはその後、AMD、Apple、Google、Nvidia、Tenstorrentから人材を集め、25人の従業員に成長しました。最近では、Google CloudでGPUおよびTPUハードウェアを監督していたAIインフラストラクチャ製品管理ディレクターのParesh Kharya氏が製品担当バイスプレジデントとして入社しました。


ロードマップ:HC2以降

TaalasはLlama 3.1 8Bで止まるつもりはありません。同社はすでに、200億パラメータを持つLlama 3.1モデルをターゲットとしたHC2チップを開発中です。年末までに、TaalasはGPT-5.2のような最先端のフロンティアモデルを実行できるチップを製造することを目指しています。同社はまた、DeepSeekのR1モデルを毎秒12,000トークン/ユーザーで実行する30個のHC1チップのクラスターベース構成も実証しています。

HC1は現在、チャットボットデモ推論APIサービスの両方で利用可能であり、より広範な商用展開は2026年中に予想されています。


市場の文脈:推論時代の幕開け

Taalasの登場は、AIハードウェア戦略におけるより広範なシフトを示しています。業界がGPUの柔軟性が最重要視されるトレーニングフェーズから、推論展開フェーズへと移行するにつれて、トークンあたりのコストが主要な指標となっています。Taalasのアプローチがスケーラブルであることが証明されれば、AIコンピューティング市場は2つの層に二分される可能性があります。NvidiaとAMDが主導する汎用トレーニングと、Taalasのようなモデル固有のシリコンファウンドリが主導する特殊推論です。

総額2億1900万ドルの資金調達、機能する最初のチップ、そして野心的なロードマップを持つTaalasは、AIハードウェアの現状に対する最も信頼できる挑戦者の1つとしての地位を確立しており、業界はそれを注視しています。