AI晶片賽道再添重磅玩家,輝達勁敵Cerebras計劃下周上市,衝擊美國年內最大IPO

來源 Tradingkey

TradingKey - 據報導,AI 晶片製造商 Cerebras 計劃於 5 月 14 日在納斯達克掛牌上市,股票代碼為「CBRS」,此次 IPO 有望成為美國年內規模最大的新股發行,也讓這家輝達(NVDA)在 AI 算力賽道最強勁的挑戰者,正式站到資本市場聚光燈下。

根據本週提交的招股文件,Cerebras 此次 IPO 擬發行 2,800 萬股股票,定價區間為每股 115 至 125 美元,若以上限定價,募資規模將達 35 億美元,按發行價上限計算市值將達 266 億美元,計入股票期權等權益後攤薄估值約 330 億美元。

值得注意的是,有知情人士透露,因投資者需求旺盛,Cerebras 最早或於 5 月 12 日上調定價區間至每股 125 至 135 美元,目前 IPO 認購訂單已超 20 倍。

這是 Cerebras 第二次衝擊 IPO,去年 10 月其曾因美國政府對阿布達比客戶 G42 的投資審查撤回上市申請,此次重啟恰逢 AI 基礎設施投資熱潮升溫、美國 IPO 市場回暖節點,市場關注度顯著提升。

Cerebras 為何敢挑戰輝達?

這家 2015 年成立於美國加州的晶片公司,從創立之初就瞄準了 GPU 之外的全新技術路線——用整片矽晶圓直接打造巨型晶片,而非傳統的切割成多顆晶粒再拼接的方式,這種晶圓級架構正是它敢於挑戰輝達的底氣所在。

公司的多位核心創始人都曾在 AMD 等龍頭晶片廠商擔任技術要職,對 GPU 的技術局限和產業痛點有著深刻理解。在當前 GPU 仍是 AI 訓練與推理主流方案的市場環境下,Cerebras 另闢蹊徑,透過 WSE(晶圓級引擎)晶片從物理層面解決了傳統 GPU 架構的核心瓶頸。

以最新的 WSE-3 晶片為例,它集成了 4 兆個電晶體和 90 萬個專用 AI 計算核心,晶片面積達到 46225 平方公釐,是輝達 B200 晶片的 56 倍,板載 SRAM 記憶體更是達到 B200 的 250 倍,記憶體頻寬是其 2625 倍。

這種設計讓整個 AI 模型可以完整儲存在單塊晶片上,徹底消除了 GPU 集群中多晶片間頻繁數據傳輸帶來的延遲,在處理大模型推理和超大規模算力需求時優勢顯著。

第三方測試數據顯示,在 Llama 4 Maverick 400B 模型推理場景中,Cerebras CS-3 系統的單用戶回應速度達到 2522 token/秒,是輝達 B200 的 2.4 倍;在 Llama 3.1 8B 小模型場景下,速度更是達到輝達 H100 的 20 倍,單位 token 成本最多可降低 80%。

除了硬體性能的突破,Cerebras 還構建了從專用硬體到軟體棧的完整解決方案,推出了 CS-2、CS-3 等超級電腦系統,既支持客戶本地部署,也提供按用量付費的雲端服務。

這種靈活的服務模式吸引了眾多重量級客戶,2026 年 1 月它與 OpenAI 簽訂超過 200 億美元的三年合作協議,將為後者部署 750 MW 算力;3 月又與 AWS 達成合作,CS-3 系統上線亞馬遜雲端服務,成為首個進入主流雲端廠商供應鏈的非 GPU AI 加速器。此外,葛蘭素史克、美國能源部、多個國家實驗室等也都是其客戶,技術實力得到多維度驗證。

從市場趨勢來看,AI 產業正從訓練為主轉向推理為主,2025 年全球 AI 推理市場規模已達 1062 億美元,預計 2030 年將增至 2550 億美元,而 Cerebras 的技術優勢恰好精準契合了這一市場需求。

它憑藉在低延遲推理場景的出色表現,已在 HuggingFace 開發者平台推理調用量排名第一,2025 年推理雲端服務收入佔比達到 30%,成功在輝達主導的市場中撕開了一道口子。

免責聲明:僅供參考。 過去的表現並不預示未來的結果。
goTop
quote