TradingKey - 据报道,AI芯片制造商Cerebras计划于5月14日在纳斯达克挂牌上市,股票代码为“CBRS”,此次IPO有望成为美国年内规模最大的新股发行,也让这家英伟达(NVDA)在AI算力赛道最强劲的挑战者,正式站到资本市场聚光灯下。
根据本周提交的招股文件,Cerebras此次IPO拟发行2800万股股票,定价区间为每股115至125美元,若以上限定价,募资规模将达35亿美元,按发行价上限计算市值将达266亿美元,计入股票期权等权益后摊薄估值约330亿美元。
值得注意的是,有知情人士透露,因投资者需求旺盛,Cerebras最早或于5月12日上调定价区间至每股125至135美元,目前IPO认购订单已超20倍。
这是Cerebras第二次冲击IPO,去年10月其曾因美国政府对阿布扎比客户G42的投资审查撤回上市申请,此次重启恰逢AI基础设施投资热潮升温、美国IPO市场回暖节点,市场关注度显著提升。
这家2015年成立于美国加州的芯片公司,从创立之初就瞄准了GPU之外的全新技术路线——用整片硅晶圆直接打造巨型芯片,而非传统的切割成多颗晶粒再拼接的方式,这种晶圆级架构正是它敢于叫板英伟达的底气所在。
公司的多位核心创始人都曾在AMD等头部芯片厂商担任技术要职,对GPU的技术局限和行业痛点有着深刻理解。在当前GPU仍是AI训练与推理主流方案的市场环境下,Cerebras另辟蹊径,通过WSE(晶圆级引擎)芯片从物理层面解决了传统GPU架构的核心瓶颈。
以最新的WSE-3芯片为例,它集成了4万亿个晶体管和90万个专用AI计算核心,芯片面积达到46225平方毫米,是英伟达B200芯片的56倍,板载SRAM内存更是达到B200的250倍,内存带宽是其2625倍。
这种设计让整个AI模型可以完整存储在单块芯片上,彻底消除了GPU集群中多芯片间频繁数据传输带来的延迟,在处理大模型推理和超大规模算力需求时优势显著。
第三方测试数据显示,在Llama 4 Maverick 400B模型推理场景中,Cerebras CS-3系统的单用户响应速度达到2522 token/秒,是英伟达B200的2.4倍;在Llama 3.1 8B小模型场景下,速度更是达到英伟达H100的20倍,单位token成本最多可降低80%。
除了硬件性能的突破,Cerebras还构建了从专用硬件到软件栈的完整解决方案,推出了CS-2、CS-3等超级电脑系统,既支持客户本地部署,也提供按用量付费的云服务。
这种灵活的服务模式吸引了众多重量级客户,2026年1月它与OpenAI签订超200亿美元的三年合作协议,将为后者部署750兆瓦算力;3月又与AWS达成合作,CS-3系统上线亚马逊云服务,成为首个进入主流云厂商供应链的非GPU AI加速器。此外,葛兰素史克、美国能源部、多个国家实验室等也都是其客户,技术实力得到多维度验证。
从市场趋势来看,AI行业正从训练为主转向推理为主,2025年全球AI推理市场规模已达1062亿美元,预计2030年将增至2550亿美元,而Cerebras的技术优势恰好精准契合了这一市场需求。
它凭借在低延迟推理场景的出色表现,已在HuggingFace开发者平台推理调用量排名第一,2025年推理云服务收入占比达到30%,成功在英伟达主导的市场中撕开了一道口子。