AI芯片赛道再添重磅玩家,英伟达劲敌Cerebras计划下周上市,冲击美国年内最大IPO

来源 Tradingkey

TradingKey - 据报道,AI芯片制造商Cerebras计划于5月14日在纳斯达克挂牌上市,股票代码为“CBRS”,此次IPO有望成为美国年内规模最大的新股发行,也让这家英伟达(NVDA)在AI算力赛道最强劲的挑战者,正式站到资本市场聚光灯下。

根据本周提交的招股文件,Cerebras此次IPO拟发行2800万股股票,定价区间为每股115至125美元,若以上限定价,募资规模将达35亿美元,按发行价上限计算市值将达266亿美元,计入股票期权等权益后摊薄估值约330亿美元。

值得注意的是,有知情人士透露,因投资者需求旺盛,Cerebras最早或于5月12日上调定价区间至每股125至135美元,目前IPO认购订单已超20倍。

这是Cerebras第二次冲击IPO,去年10月其曾因美国政府对阿布扎比客户G42的投资审查撤回上市申请,此次重启恰逢AI基础设施投资热潮升温、美国IPO市场回暖节点,市场关注度显著提升。

Cerebras为什么敢叫板英伟达?

这家2015年成立于美国加州的芯片公司,从创立之初就瞄准了GPU之外的全新技术路线——用整片硅晶圆直接打造巨型芯片,而非传统的切割成多颗晶粒再拼接的方式,这种晶圆级架构正是它敢于叫板英伟达的底气所在。

公司的多位核心创始人都曾在AMD等头部芯片厂商担任技术要职,对GPU的技术局限和行业痛点有着深刻理解。在当前GPU仍是AI训练与推理主流方案的市场环境下,Cerebras另辟蹊径,通过WSE(晶圆级引擎)芯片从物理层面解决了传统GPU架构的核心瓶颈。

以最新的WSE-3芯片为例,它集成了4万亿个晶体管和90万个专用AI计算核心,芯片面积达到46225平方毫米,是英伟达B200芯片的56倍,板载SRAM内存更是达到B200的250倍,内存带宽是其2625倍。

这种设计让整个AI模型可以完整存储在单块芯片上,彻底消除了GPU集群中多芯片间频繁数据传输带来的延迟,在处理大模型推理和超大规模算力需求时优势显著。

第三方测试数据显示,在Llama 4 Maverick 400B模型推理场景中,Cerebras CS-3系统的单用户响应速度达到2522 token/秒,是英伟达B200的2.4倍;在Llama 3.1 8B小模型场景下,速度更是达到英伟达H100的20倍,单位token成本最多可降低80%。

除了硬件性能的突破,Cerebras还构建了从专用硬件到软件栈的完整解决方案,推出了CS-2、CS-3等超级电脑系统,既支持客户本地部署,也提供按用量付费的云服务。

这种灵活的服务模式吸引了众多重量级客户,2026年1月它与OpenAI签订超200亿美元的三年合作协议,将为后者部署750兆瓦算力;3月又与AWS达成合作,CS-3系统上线亚马逊云服务,成为首个进入主流云厂商供应链的非GPU AI加速器。此外,葛兰素史克、美国能源部、多个国家实验室等也都是其客户,技术实力得到多维度验证。

从市场趋势来看,AI行业正从训练为主转向推理为主,2025年全球AI推理市场规模已达1062亿美元,预计2030年将增至2550亿美元,而Cerebras的技术优势恰好精准契合了这一市场需求。

它凭借在低延迟推理场景的出色表现,已在HuggingFace开发者平台推理调用量排名第一,2025年推理云服务收入占比达到30%,成功在英伟达主导的市场中撕开了一道口子。

免责声明:仅供参考。 过去的表现并不预示未来的结果。
goTop
quote