Cerebras在资本市场掀起了一场风暴。这家专注于AI硬件的公司,上市首日便以惊人的表现吸引了全球投资者的目光。其IPO定价为185美元,开盘价直接飙升至350美元,盘中最高触及385美元,市值一度突破800亿美元大关。路透社评价称,这是自2026年以来规模最大的IPO之一,标志着AI基础设施领域迎来了新的重量级玩家。
Cerebras的崛起并非偶然。凭借晶圆级AI芯片技术,以及与OpenAI、亚马逊等巨头的合作关系,它被市场视为“英伟达之外的AI基础设施资产”。2025年,公司营收约5.1亿美元,成功从亏损转向盈利。然而,市场对其高估值的认可,并非基于当前的利润表,而是对AI推理市场未来趋势的判断——交互速度正成为新的竞争焦点。
过去两年,AI算力市场的投资逻辑主要围绕GPU供给、HBM瓶颈和云厂商资本开支展开。但如今,模型厂商和开发者开始为另一个指标付费:单个用户获取Token的速度。Cerebras的晶圆级架构,正是为满足这一需求而设计。OpenAI已承诺购买750MW的Cerebras高速AI推理算力,并计划从2026年开始分阶段部署。这一订单不仅为Cerebras提供了收入保障,也验证了其技术的市场潜力。
AI推理市场的变化正在重塑估值逻辑。与训练阶段不同,推理直接面向用户行为,对响应速度、并发体验和成本效率的要求更高。尤其是在代码生成、Agent工作流等场景中,延迟几秒就可能导致生产力下降。开发者不仅需要更聪明的模型,还需要更“跟手”的模型。SemiAnalysis的报告指出,当模型智能达到一定阈值后,开发者更倾向于选择速度更快的选项,而非更聪明的选项。
Cerebras的估值弹性正源于此。它没有追求最大吞吐量,而是专注于提升单个用户的Token输出速度。OpenAI、Anthropic等公司已开始将服务拆分为不同速度档位,测试速度能否成为独立收费点。如果用户愿意为高速模式支付溢价,推理硬件市场将出现新的分层:一类负责低成本大吞吐,另一类负责高价值低延迟。Cerebras显然瞄准了后者。
Cerebras的核心竞争力在于其独特的晶圆级芯片架构。与传统的GPU不同,WSE-3将整片晶圆制成一个巨大的AI处理器,采用台积电5nm工艺,拥有约4万亿晶体管、90万个计算核心和44GB片上内存。这种设计通过片上SRAM和超高带宽,实现了低延迟解码能力,尤其适合低batch、小并发、高交互的推理任务。然而,这种架构也带来了显著的工程约束。
首先是SRAM容量的限制。44GB的片上内存虽然庞大,但与高端GPU的HBM容量相比仍显不足。更关键的是,SRAM的扩展速度正在放缓。从WSE-1到WSE-3,SRAM容量仅从18GB提升至44GB,远低于逻辑晶体管的密度增长。对于GPU厂商来说,可以通过叠加HBM或改进封装技术来扩大内存容量;但对Cerebras而言,晶圆面积已接近极限,增加SRAM意味着牺牲计算核心空间。
其次是片外I/O的瓶颈。Cerebras的优势在于片上带宽,但片外数据传输能力较弱。当模型规模较小或上下文较短时,其速度优势明显;但一旦模型变大或上下文拉长,跨晶圆切分的需求增加,就会带来延迟和效率问题。例如,Agentic coding这类工作负载需要长上下文和连续工具调用,对Cerebras的架构构成了挑战。
最后是系统成本问题。Cerebras提供的不是单颗芯片,而是一整套高复杂度系统。WSE-3功耗高,需要定制液冷、供电和连接方案,数据中心改造成本高昂。它的价值不在于替代GPU,而在于通过复杂系统换取极致交互速度。因此,其商业化成功与否,取决于能否在特定速度区间内,通过规模化部署摊薄成本。
OpenAI基于Cerebras运行的模型进一步强化了这一合作。例如,GPT-5.3-Codex-Spark在120B参数级别实现了极高的tok/sec/user速度,适合代码生成和工具调用等场景。对开发者而言,模型智能达到可用门槛后,速度将成为付费的关键因素。然而,这一路线的上限尚未得到验证。如果未来模型规模扩大至1T参数或上下文窗口达到1M,Cerebras需要在速度、容量和成本之间做出更艰难的取舍。
Cerebras的商业路径可能聚焦于120B至数百B参数区间,通过极致优化高交互速度,服务愿意为效率付费的开发者和企业客户。市场对它的评估将分三个阶段:短期看OpenAI订单的兑现速度,中期看快Token的付费能力,长期看模型演进是否持续适配其硬件边界。如果750MW订单顺利交付并扩展,Cerebras有望从AI硬件新股转型为推理基础设施平台;反之,它可能成为这一轮AI硬件狂热中的高估值样本。









