同時,WSE-3配備44GB片上SRAM與21PB/s的內(nèi)存帶寬,徹底打破了傳統(tǒng)內(nèi)存瓶頸。其晶圓級互聯(lián)架構(gòu)可提供27PB/s的內(nèi)部帶寬,速度是最新一代NVLink的206倍。
WSE 最多可將 2048 套系統(tǒng)組合在一起,提供 256 EFLOPS 的 AI 算力。AI 開發(fā)者可以訓(xùn)練參數(shù)規(guī)模高達(dá) 24 萬億的模型,而無需處理多 GPU 調(diào)度和并行策略帶來的復(fù)雜問題。
傳統(tǒng) GPU(如 B200)必須不斷從片外的 HBM 內(nèi)存中讀取數(shù)據(jù),這受限于 HBM 的帶寬,這也是AI大模型爆發(fā)帶動HBM存儲迅速發(fā)展的重要原因——通過強(qiáng)化片外存儲的傳輸能力,被動緩解算力與存儲分離帶來的性能瓶頸。
Cerebras 將 44GB 的高速內(nèi)存直接放在 90 萬個 AI 核心旁邊,無需再通過片外鏈路調(diào)取數(shù)據(jù),從物理架構(gòu)上消除數(shù)據(jù)往返傳輸延遲。
2026 年1 月,Cerebras 與OpenAI 簽署多年合作協(xié)議,承諾為 OpenAI 提供 750 兆瓦的推理算力,部署規(guī)模將分階段在 2026 至 2028 年間落地,合同總價值逾 100 億美元,被官方稱為“全球最大規(guī)模高速AI推理部署”。OpenAI官方公告指出,此次合作的核心目的之一是降低ChatGPT實(shí)時響應(yīng)的推理延遲。
2026 年3 月 13 日,AWS 宣布與 Cerebras 建立多年合作,將 Cerebras CS-3 系統(tǒng)部署于 AWS 數(shù)據(jù)中心,通過 Amazon Bedrock 提供推理服務(wù)。官方新聞稿顯示,這是首次有主流超大規(guī)模云平臺在自有數(shù)據(jù)中心內(nèi)部署非 GPU AI 加速器。
AWS計算服務(wù)副總裁David Brown表示:“這種分離式架構(gòu)讓每個系統(tǒng)各盡其長,結(jié)果將是比今天任何方案都快一個數(shù)量級的推理性能。”
行業(yè)分析機(jī)構(gòu) Futurum 在其評析中指出,這一合作“是標(biāo)志性的新階段——推理架構(gòu)正在獨(dú)立,專用芯片將取代單體 GPU 部署,用于延遲敏感型任務(wù)。”
Artificial Analysis 的測評表示,Cerebras CS-3 在Meta Llama 4 Maverick(400B 參數(shù))模型上達(dá)到 2,522 tokens/秒,超過英偉達(dá) Blackwell B200 的1,038 tokens/秒,領(lǐng)先幅度約 2.4 倍。對比Llama 3.1 8B小模型,差距更顯著:Cerebras可達(dá)約1,800 t/s,而英偉達(dá)H100約為90 t/s,相差約20倍。
按 token 計費(fèi)的云服務(wù),DeepSeek V3 在Cerebras 上的定價為輸入 $0.20/百萬 tokens、輸出 $0.50/百萬 tokens,綜合價格極具競爭力。截至2025年9月,Cerebras已在北美、歐洲擴(kuò)建至五個新數(shù)據(jù)中心,并同步在AWS Marketplace上線,進(jìn)入企業(yè)級采購渠道。
AI 行業(yè)正在從“訓(xùn)練為主”轉(zhuǎn)向“推理為主””,而推理對延遲極為敏感。ChatGPT 等對話 AI、多步驟智能體(Agentic AI)、實(shí)時代碼生成等場景,都對 tokens/秒有嚴(yán)苛要求。AI 推理市場規(guī)模預(yù)計將從 2025 年的 1,062 億美元增長至 2030 年的 2,550 億美元,CAGR 約19%。
這項(xiàng)測評展示了 Cerebras 在推理領(lǐng)域速度與成本上的顯著優(yōu)勢,但要得出“完全碾壓”的結(jié)論還為時過早。
英偉達(dá)最強(qiáng)大的武器并非硬件,而是極其成熟的CUDA 生態(tài)。開發(fā)者在轉(zhuǎn)向 Cerebras 時需適配專有編譯器,且目前對動態(tài)控制流等高級 AI 特性的支持尚不完整,這種遷移成本是企業(yè)決策時的核心障礙。全球數(shù)以百萬計的AI工程師在CUDA上深度訓(xùn)練,遷移至Cerebras平臺存在學(xué)習(xí)成本。分析指出,AWS Bedrock集成的戰(zhàn)略意義之一,正是通過托管服務(wù)降低工程師直接接觸底層硬件差異的必要性——如果開發(fā)者無需修改代碼就能使用Cerebras,生態(tài)差距的影響將大幅減小。
CS-3 單系統(tǒng)功耗高達(dá) 50kW,遠(yuǎn)超單臺 GPU 服務(wù)器。對于空間和電力受限的傳統(tǒng)數(shù)據(jù)中心來說,部署此類設(shè)備面臨物理基礎(chǔ)設(shè)施的制約。
同時,在加速數(shù)據(jù)通信上,英偉達(dá)并未坐以待斃。除了 Blackwell 的快速迭代,英偉達(dá)還通過收購?fù)评沓鮿?chuàng)公司 Groq 的核心資產(chǎn),以及推出 NIM 推理微服務(wù)來鞏固其在推理市場的地位。
Groq 的芯片為LPU(Language Processing Unit),主要面向LLM 等推理場景,從架構(gòu)上追求“快速、可預(yù)測、低成本”的大模型推理,而不是通用訓(xùn)練 + 圖形渲染。許多 LLM 推理場景下,單位 token 的計算成本和能耗都顯著低于傳統(tǒng) GPU 集群(原因是高片上帶寬、少外存訪問、推理專用指令流)。
基于 Tensor Streaming Processor(TSP)架構(gòu),硬件盡量去掉緩存、多級亂序等導(dǎo)致不確定性的機(jī)制,讓編譯器可以靜態(tài)安排每條指令和每一跳數(shù)據(jù)路徑,實(shí)現(xiàn)“流水線裝配線式”的可預(yù)測執(zhí)行。
第一代 LPU 約有 230 MB 片上 SRAM、80 TB/s 內(nèi)部帶寬,遠(yuǎn)高于典型 GPU 的 HBM 外部帶寬(約 8 TB/s 量級),減少訪問外部內(nèi)存的次數(shù),從而降低時延并提升能效。
對很多企業(yè)來說,訓(xùn)練成本是一次性投入,而推理(每天要跑的token 數(shù))才是真正長期的資本支出,Groq 把長期成本曲線壓低,使得大規(guī)模商用 LLM 服務(wù)更可持續(xù)。對于英偉達(dá)來說,收購Groq是在“訓(xùn)練卡賣一次”的模式之外,增加了英偉達(dá)在“長期推理成本優(yōu)化”的抓手。簡單來說,英偉達(dá)能在 TCO 和能效上給出更有競爭力的推理方案,而不僅依賴堆更多 GPU。
從產(chǎn)品角度來看,Cerebras選擇將整個300mm晶圓做成一顆芯片,這同時意味著任何一處缺陷都可能導(dǎo)致芯片報廢,Cerebras在良率控制上承擔(dān)了極高的制造風(fēng)險。相對來說,傳統(tǒng)GPU的小芯片可通過“切割丟棄缺陷區(qū)”規(guī)避。
在商業(yè)模式上,Cerebras必須應(yīng)對客戶集中度風(fēng)險。
雖然Cerebras官方表示有許多頭部客戶在使用自家產(chǎn)品,如Notion將Cerebras集成為其實(shí)時企業(yè)搜索功能的底層推理引擎,面向數(shù)百萬企業(yè)用戶,Cerebras也成為OpenAI最新安全模型的最快推理提供商,使AI安全策略的實(shí)時判斷成為可能——在內(nèi)容審核、文檔分類、智能體護(hù)欄等場景,實(shí)現(xiàn)了“先審后發(fā)”的實(shí)時安全檢測。
從營收來看,阿聯(lián)酋G42貢獻(xiàn)了2024年H1高達(dá)87%的營收。對應(yīng)一份$14.3億的合同承諾。雖然新合同不斷到來,但若G42出現(xiàn)任何地緣政治變化(美國對阿聯(lián)酋AI芯片出口管制趨嚴(yán)等),將對營收造成重大沖擊。雖然G42已被移出Cerebras投資者名單,但其仍是最大單一客戶。
從交貨壓力來看,雖然拿下了許多大訂單,但Cerebras的產(chǎn)能卻不一定能到位。隨著OpenAI750MW算力部署、AWS合作相繼到位,Cerebras在2026-2028年間將面臨極大的產(chǎn)能擴(kuò)張壓力。公司已將Series H資金的重要部分用于美國本土制造產(chǎn)能擴(kuò)充,但實(shí)際交付時間線仍是最大的執(zhí)行不確定性。
想撕開英偉達(dá)算力圍城的企業(yè)不只Cerebras,“非GPU AI芯片”賽道上還有一家明星企業(yè)SambaNova。SambaNova的創(chuàng)新性也是想解決GPU的內(nèi)存墻問題。但解法截然不同。SambaNova的核心思路是用可重配置的數(shù)據(jù)流架構(gòu)(RDU)+三級內(nèi)存,在標(biāo)準(zhǔn)芯片上實(shí)現(xiàn)接近單片大芯片的效率。
三級內(nèi)存包括SRAM(片上,極速,小容量)、HBM(高帶寬內(nèi)存,中速大容量)、DDR(低速超大容量)。三級內(nèi)存使 SambaNova 系統(tǒng)可承載遠(yuǎn)超片上SRAM大小的模型(單機(jī)架3TB內(nèi)存),同時通過“算子融合”(operator fusion)減少內(nèi)核調(diào)用次數(shù),大幅降低延遲。測評顯示,SambaNova SN40L在Llama 3.3 70B上相對Nvidia H200實(shí)現(xiàn)了低批量9倍、高批量4倍的速度提升,同時能耗效率提升5.6–2.5倍。
SambaNova 的低功耗是其在電力受限數(shù)據(jù)中心的核心賣點(diǎn)。2021年 — Series D由SoftBank Vision Fund 2領(lǐng)投,估值$50億,但2025年開始出現(xiàn)關(guān)于SambaNova尋找買家的新聞,英特爾曾經(jīng)提出16億美元的收購要約,但后續(xù)談判失敗。
曾經(jīng)站在同一起跑線的兩家企業(yè)正面對不同的資本熱情,Cerebras市場估值超200億美元,但SambaNova正在尋找新的融資方。
英偉達(dá)的圍城仍在,一名 AI 創(chuàng)業(yè)公司 CTO 曾評價三家公司表述最能說明問題:“我們對 SambaNova和 Cerebras 都做了基準(zhǔn)測試。兩家在推理速度上都比英偉達(dá)快。但我們整個代碼庫都基于 CUDA,工程師都懂 CUDA,云預(yù)算已經(jīng)包含了與英偉達(dá)談好的折扣。切換意味著重寫代碼、重新培訓(xùn)員工、重新談合同——為了大約 30% 的性能提升,這筆賬不合算。”
在贏者通吃的市場里,好10%遠(yuǎn)遠(yuǎn)不夠——你需要好10倍,并且有清晰的市場采用路徑。
快報
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請綁定手機(jī)號后發(fā)表評論