谷歌校友创立的MatX获得5亿美元融资,旨在打造“反英伟达”AI芯片
新闻摘要
英伟达竞争对手 MatX 融资 5 亿美元 B 轮,挑战 AI 芯片霸主地位
融资轮概述
2026 年 2 月 24 日星期二(美国东部时间),AI 芯片初创公司 MatX 宣布完成 5 亿美元 B 轮融资,这标志着在挑战英伟达作为 AI 加速器主导供应商的竞争中,双方的角力进入了一个新的阶段。本轮融资由 Jane Street 和前 OpenAI 研究员 Leopold Aschenbrenner 创立的投资公司 Situational Awareness 领投。其他投资者包括半导体巨头 Marvell Technology、风险投资公司 NFDG 和 Spark Capital,以及 Stripe 的联合创始人 Patrick 和 John Collison。
MatX 拒绝透露其确切的投后估值,但确认其目前估值已达 数十亿美元。作为参考,其最接近的竞争对手 Etched 上个月以 50 亿美元的估值融资了 5 亿美元。
MatX 是谁?
MatX 由 Reiner Pope 和 Mike Gunter 于 2022 年创立,两人均是谷歌半导体部门的资深人士。Pope 曾领导谷歌张量处理单元(TPU)的 AI 软件开发,而 Gunter 则担任同一平台的首席硬件设计师。两人离开谷歌的唯一使命是:打造一款专为大型语言模型(LLM)设计的芯片。
此轮融资之前,MatX 于 2024 年完成了约 1 亿美元的 A 轮融资——同样由 Spark Capital 领投——当时公司估值超过 3 亿美元。
MatX One 芯片:技术雄心
MatX 产品路线图的核心是 MatX One,这是一款专为 LLM 优化的加速器,旨在使训练和推理性能均超越英伟达的 GPU 十倍。该芯片采用了创新的 SRAM 优先架构 并结合高带宽内存(HBM),这种混合方法公司认为可以同时实现 GPU 式设计的超高吞吐量和基于 SRAM 的加速器的超低延迟。
关键技术差异化优势包括:
- 分裂的 systolic array,有望实现行业领先的每平方毫米浮点运算次数 (FLOPS)
- 可扩展至数十万个芯片
- 支持 LLM 预训练、强化学习、推理预填充和解码——所有这些都在单个芯片上实现
- HBM 专门用于键值(KV)缓存存储,而非模型权重
首席执行官 Reiner Pope 表示:“我们的立场是,实际上可以在同一款产品中实现这两者,并因此获得更好的产品。”
制造和时间表
MatX 计划与 台积电(台湾积体电路制造股份有限公司) 合作生产 MatX One。公司预计将在 2026 年完成芯片设计,并于 2027 年开始出货产品。5 亿美元融资的一部分将专门用于预留制造产能,并确保在生产前获得关键零部件。
竞争格局
MatX 进入了一个拥挤但高风险的战场。英伟达的市场市值在 2025 年 10 月曾短暂超过 5 万亿美元,其 H100 和 B200 GPU 系列继续主导 AI 加速器销售。其他挑战者——包括 Groq、Cerebras、SambaNova 和 dMatrix——大多专注于推理工作负载,而 Etched 则将自身定位在专为 Transformer 设计的芯片上。
MatX 通过瞄准整个 AI 计算堆栈来区分自己:训练、微调和推理。这种广泛的雄心是优势还是劣势,将在公司迈向 2027 年产品发布时变得更加明朗。
分析师视角
这 5 亿美元的融资凸显了 AI 芯片开发已变得多么资本密集。与英伟达竞争不仅需要卓越的工程技术,还需要构建开发者生态系统、软件工具链和制造关系的能力——所有这些都需要持续的财力支持。通过本轮融资,MatX 现在拥有了认真追求这些目标的资金支持。