
曾经带领谷歌TPU团队打造出AI芯片的几位大牛,现在组建了一家新公司MatX。就在2026年2月24日,他们宣布拿到了高达5亿美元(差不多34亿人民币)的B轮融资,这笔钱可不是小数目。这笔钱背后,不仅有世芯电子、美满电子这样的半导体大厂站台,还有不少顶级投资机构也跟着加了码。
MatX One:为什么值这么多钱?
MatX这次这么硬气,靠的就是他们正在打造的一款名叫MatX One的芯片。简单来说,现在训练和运行那些“大模型”(就是像ChatGPT那样能聊天、能写文章的AI)特别烧钱,就像在给它们吃“天价饲料”。而MatX One的目标,就是要把这个“饲料费”降下来,而且要让AI跑得更快、更省。
它怎么做到的呢?
- “魔术”架构: MatX One用了一种叫“可分割脉动阵列”的特别设计。你可以想象成,它能根据不同的任务,把一个大工厂拆分成几个小车间,或者把小车间组合成大工厂。这样一来,无论是干什么活,都能把机器(也就是芯片里的计算单元)用得最满,效率最高。
- 内存“黑科技”: 运行大模型需要处理大量信息,就像需要一个巨大的“记忆库”。MatX One把两种内存技术结合起来:一种速度飞快(SRAM),能瞬间记住小段信息;另一种容量巨大(HBM),能记住长篇大论。这样一来,AI在处理复杂指令时就不会卡壳,速度和能力都大大提升。
- 全能选手: 不管是AI刚开始“热身”(预填充),还是在快速回答问题(推理解码),甚至是更复杂的学习过程(强化学习训练),MatX One都能轻松应对,而且性能都比别人强。
“喂”AI的成本要下来了
想想看,现在训练和使用一个大模型,就像在养一头“吞金兽”。每一条信息(Token)的产生,成本都很高。MatX说,他们的MatX One芯片能让AI处理的效率翻倍,甚至更高,这样一来,那些开发AI的公司就能省下不少钱。这意味着,未来我们用AI服务,可能也会变得更便宜、更普及。
AI芯片大战,硝烟弥漫
MatX的出现,只是当前AI芯片领域火爆景象的一个缩影。就在最近,这个领域热闹非凡:
- SambaNova推出了新一代芯片,还和英特尔抱团取暖。
- Positron发布了一款号称比英伟达芯片更省电的芯片。
- 在国内,科学家们还搞出了成本不到1美元、能弯折4万次的柔性AI芯片,这可能让未来的智能手表、健康手环等可穿戴设备变得更强大。
可以预见,随着大模型的需求越来越高,对底层芯片的创新要求也越来越苛刻。MatX这样的公司,正是瞄准了这个巨大的技术和市场缺口,试图在算力竞赛中分一杯羹。这场围绕着“最强大脑”的竞争,才刚刚进入白热化阶段。