由前谷歌技术团队成员创立的芯片企业MatX Inc.近日宣布完成5亿美元B轮融资,资金将用于加速其首款人工智能专用处理器的研发与量产。本轮融资由量化交易巨头Jane Street与科技投资机构Situational Awareness联合领投,芯片制造商Marvell Technology、支付平台Stripe联合创始人及另外四家战略投资者参与跟投。此前该公司已通过多轮融资从相同投资方组成的财团获得超1亿美元支持。
MatX One作为其核心产品,采用突破性的"可分割脉动阵列"架构设计。这种创新架构允许单个芯片将计算阵列动态划分为多个独立模块,每个模块可针对特定数据类型优化电路配置。相较于传统脉动阵列固定化的计算模式,该技术使芯片在处理不同规模的语言模型时能自动调整计算路径,显著提升资源利用率。
在存储架构方面,MatX One采用混合内存方案:将占模型参数90%以上的权重数据存储在片上SRAM中,这种紧邻计算核心的高速内存使数据访问延迟降低至纳秒级;而用于存储中间计算结果的KV缓存则采用高带宽内存(HBM),在保证处理速度的同时支持更长的上下文窗口。这种设计使芯片在保持低延迟优势的同时,突破了传统SRAM容量限制。
技术团队在解码机制上实现双重优化:通过集成推测解码技术,处理器可并行生成多个候选输出序列,结合块级稀疏注意力机制对非关键计算进行智能跳过。实验室测试数据显示,在处理千亿参数级模型时,MatX One的吞吐量较主流GPU提升3.8倍,而能耗降低42%。公司首席架构师在技术白皮书中透露,其数值计算单元采用全新浮点精度算法,在保证模型精度的前提下减少了30%的运算量。
本轮融资将重点投入芯片流片前的最后验证阶段。MatX计划在未来12个月内完成7nm制程工艺的工程样片制造,随后启动与超算中心的联合测试。值得关注的是,Marvell Technology除资金支持外,还将开放其先进封装测试线供MatX使用,这为芯片的量产良率控制提供重要保障。
行业分析师指出,随着大语言模型参数规模突破万亿级,现有计算架构面临内存带宽瓶颈和能效比危机。MatX的混合内存架构与动态阵列分割技术,为解决"内存墙"问题提供了新思路。据供应链消息,多家云服务提供商已就芯片采购展开前期洽谈,首批订单容量可能超过50万片。
在生态建设方面,MatX宣布将开源其编译器工具链,支持TensorFlow、PyTorch等主流框架的无缝迁移。公司CTO在技术研讨会上演示了用单颗MatX One芯片实时处理1750亿参数模型的场景,其每秒32000 tokens的生成速度创下行业新纪录。这项突破可能重塑云计算市场的定价模式——按输出token计费的服务或将因硬件效率提升而大幅降价。












