上市即熔断,单日暴涨超108%,Cerebras真是“下一个英伟达”?

Odaily星球日报發佈於 2026-05-15更新於 2026-05-15

文章摘要

人工智能芯片公司Cerebras(股票代码CBRS)近期以“下一个英伟达”的名号登陆纳斯达克,上市首日股价从185美元发行价一度暴涨超108%,引发市场高度关注。其核心创新在于制造了全球最大的AI芯片——晶圆级引擎(WSE),该芯片面积如餐盘大小,集成了4万亿晶体管,号称在特定AI任务上比英伟达芯片快15-20倍。公司主要为OpenAI、Meta等巨头提供超低延迟的AI推理算力。 Cerebras与OpenAI关系深远且复杂:OpenAI不仅是其最大客户,签订了价值可能超过200亿美元的算力采购协议,同时还提供了贷款,并通过认股权证可能获得Cerebras约10%-11%的股权,成为潜在的重要股东。这为Cerebras的发展提供了强大支撑。 然而,分析认为Cerebras短期内难以撼动英伟达的行业霸主地位。原因在于:英伟达拥有CUDA等成熟的软硬件生态和庞大的开发者社区;其产品线多元,规模效应显著;而Cerebras的晶圆级芯片制造成本高、量产挑战大,客户集中度较高,2025年营收为5.1亿美元,与英伟达体量差距巨大。同时,它还面临AMD、谷歌TPU等众多竞争者的挑战。 综上,Cerebras凭借其独特的大芯片技术在AI推理和超大规模训练细分领域占据了“速度之王”的利基市场,并因AI算力热潮和明星客户订单而获得资本市场追捧。但其股价未来走势将高度依赖于大额订单的实际兑现以及AI行业需求的持续性。中长期看,它更可能是在特定赛道成功的挑战者,而非英伟达的全面替代者。

原创|Odaily 星球日报(@OdailyChina)

作者|Wenser(@wenser 2010)

昨夜,头顶“下一个英伟达”名号的 Cerebras(CBRS)正式开盘,不久后旋即从 185 美元的发行价暴涨至 350 美元,盘中一度冲高至 385 美元,涨幅超 108%。尽管目前其股价已回落至 311 美元左右,但仍有超 68%的涨幅。此前 Cerebras CEO Andrew Feldman 曾在接受 CNBC 采访时表示:“我们的芯片有餐盘大小,且比英伟达的芯片快 20 倍。

这家筹集 55 亿美元的芯片制造商,有何底气说出“比英伟达芯片速度更快”这样的豪言壮语?其又如何在激烈竞争中收获了 OpenAI 的 200 亿美元订单?短期来看其股价是否将延续涨势?Odaily星球日报将于本文针对以上问题给出自己的答案。

Cerebras 对标英伟达的底气所在:用晶圆级芯片打开 AI 新世界

随着 AI 算力的缺口日益庞大,旺盛的市场需求推动英伟达一路成为了当下全球市值最高的上市公司。

日前,英伟达股价续创新高,市值一度突破 5.5 万亿美元。就其市值规模而言,其已经成为仅次于美国和中国 GDP 的经济体,远超德国、日本等全球主要经济体国家,称得上是真正的“富可敌国”。

但和成立数十年的“老牌霸主”英伟达不同,Cerebras(CBRS)只是芯片制造业的后起之秀。

2016 年,Andrew Feldman、Gary Lauterbach 、Sean Lie、Michael James、JP Fricker 等芯片行业资深人士联合创立了 Cerebras Systems,公司总部位于美国加州 Sunnyvale。和英伟达致力于构建通用级 GPU 以最大化满足市场需求的技术路线不同,Cerebras 的核心创新是晶圆级引擎(Wafer Scale Engine,WSE),即目前全球最大的 AI 芯片。

Cerebras 创始团队 5 人组(2022 年)

其核心产品包括:

  • WSE-3:面积约 46,225 mm2(相当于晚餐盘大小),含 4 万亿晶体管、90 万个 AI 优化核心,提供 125 petaflops 计算力。相比传统 GPU,它把整个晶圆做成单一巨型处理器,避免多 GPU 互联的瓶颈,片上 SRAM 高达 44GB,内存带宽极高。
  • CS-3 系统:基于 WSE-3 的 AI 超级计算机,支持训练和推理;目前,Cerebras 不光卖芯片,还提供云服务(Cerebras Inference)、专用数据中心和本地部署等技术支持。

业务模式方面,Cerebras 主要为 OpenAI、Meta、Perplexity、Mistral、GSK、Mayo Clinic 等提供超低延迟推理。2025 年,Cerebras 年收入为 5.1 亿美元(同比增长 76%),已实现盈利,并有巨额的订单支撑(包括与 OpenAI 长达数年的数百兆瓦计算合同)。

Cerebras WSE-3 芯片图示

5 月 14 日 IPO 当天,Cerebras CEO Andrew Feldman 在 CNBC《Squawk Box》采访中也对公司运营现状及技术护城河、后续市场走向等做出了正面回应:

  • 首先,Feldman 表示,IPO 是“为增长融资的正确方式”(“this is the right way to fund our growth”),公司已经成熟,公共市场能支持巨大增长机会。他强调这是十年努力的成果,感到非常自豪,并称市场“理解了我们的故事并以积极方式回应”。
  • 其次,他多次强调, Cerebras 是 70 年来唯一成功制造“巨型芯片”的公司,其他尝试者都失败了,因此“技术护城河既宽且深”(“the technical moat is wide and deep”)。正是这里,他提及,Cerebras 的芯片比英伟达等竞争对手的芯片大 58 倍,且运行速度快 15-20 倍,能让 AI 推理和训练大幅加速。
  • 最后,针对市场对 AI 支出能否持续等方面的顾虑,Feldman 表示,相关需求“巨大且持续增长”。公司芯片让 AI 体验发生质变(更快响应、实时代理等)。他提到与 OpenAI、AWS 等达成重要合作,并看好 AI 硬件整体环境。

说一点题外话,和马斯克此前与 Anthropic 押注“太空数据中心”一样(推荐阅读《马斯克和 Anthropic,要去太空找电了》),Feldman 也大胆预测,“15 年内,太空中的数据中心很有可能成为现实”,其对 AI 基础设施长期建设和高速扩张的信心一览无遗。

由此,作为 AI 芯片领域的“速度极客”,Cerebras 从专攻超大规模模型的极致性能方面成功突围,一跃成为英伟达在大模型推理和超大规模训练应用等方面的强势挑战者。

这方面,OpenAI 的 200 亿美元订单为其发展提供了充足底气,且二者之间的合作远远不止“芯片制造商”与“芯片采购方”这一层关系。

Cerebras 与 OpenAI 的复杂关系:客户、债权人与潜在大股东

提起 Cerebras 与 OpenAI 的渊源,可以称得上由来已久。除去公司层面的合作以外,OpenAI 创始人 Sam Altman、联创 Greg Brockman 等人是 Cerebras 的早期天使投资者,持有少量股份,这或许也是两家公司之所以有了如今各方面深层次绑定的重要原因。

2025 年 12 月,OpenAI 曾向 Cerebras 提供了 10 亿美元的 Working Capital Loan(营运资金贷款),双方的债权关系由此确立。

今年 1 月,Cerebras 与 OpenAI 的“750MW 推理算力采购协议”正式亮相,且后续强调该合作有扩展到 2GW 的选择权。4 月,这一消息再次得到确认。据媒体消息,OpenAI 计划在未来三年内投入超过 200 亿美元采购由 Cerebras 芯片驱动的服务器,并将作为交易的一部分获得该公司股权。OpenAI 也由此一跃成为 Cerebras 的最大客户,没有之一。

图片来源:@Xingpt

Cerebras 后续的S-1 招股书及 IPO 申请文件显示,预计 OpenAI 将以每股 0.00001 美元的极低行权价取得约 3,344 万份 Cerebras 认股权证,部分认股权证附带归属条件,包括算力交付日期,以及 Cerebras 市值超过 400 亿美元等里程碑式要求。

若全部行权并满足条件,OpenAI 可获得约 10%-11% 的股权(具体比例取决于 IPO 后总股本)。以 IPO 定价时约 560 亿美元估值计算,这部分股权价值约 50-60 亿美元;若按当前市值(IPO 首日收盘后已接近 950 亿美元)计算,这部分股权价值在超 103 亿美元左右。尽管目前并未完全行权,但将 OpenAI 称为“Cerebras 潜在大股东”已毫无悬念。

图片来源:@Xingpt

Cerebras 能否成为下一个英伟达尚是未知数,但股价短期或继续上涨

回到最开始的第三个问题,Cerebras 能否成为下一个英伟达?

从行业格局层面来说,答案无疑是否定的。主要原因有四:

  • 其一,二者生态系统差距巨大:作为芯片制造行业的绝对霸主,英伟达的 CUDA 软件栈是毫无争议的行业标准,无数开发者、技术框架、工具链寄生其上;而 Cerebras 虽然也有自己的软件栈,但远未达到 CUDA 的成熟度和兼容性,对于众多开发者、企业来说切换成本极高。
  • 其二,二者的规模差异与多元化发展路线:2025 年,英伟达收入高达数百亿美元,且 GPU 覆盖训练、推理、图形、汽车、数据中心等全场景,黄仁勋更是在 2026 年 CES 上放出豪言,“2027 年 AI 芯片与基础设施市场规模或达 1 万亿美元”,英伟达则是最大的蛋糕拥有者。与之相对,Cerebras 2025 年收入仅有 5.1 亿美元,且客户相对集中在 OpenAI 等单一巨头身上,抗风险能力较弱。
  • 其三,二者的芯片制造与成本控制不同:超大 AI 芯片带来的不仅仅是更快的运行速度,也是更高的制造难度及成本。Cerebras 的晶圆级芯片每片需整张晶圆,TSMC 产量低、良率挑战大、单价高(一台 CS-3 系统成本远高于单张 GPU);而英伟达那边,一张晶圆能切出几十颗 GPU,规模效应更强,经济收益更高。
  • 其四,二者在芯片行业的竞争压力不同:和英伟达处于行业优势地位不同,Cerebras 还面临着 Groq、AMD、Google TPU、AWS Trainium 等多个行业玩家的直接竞争,尽管目前其发展势头良好,但受限于时间、资金、资源等限制,其目前的定位更像一位“高端小众玩家”,而非“市场霸主”。

基于以上信息来看,Cerebras 短期内无法成长为英伟达那样的行业巨头,更无法颠覆现有的行业竞争态势;但从股价对比方面来看,其单股价格已然超越英伟达。此外,得益于如火如荼的 AI 热潮和与日俱增的算力缺口,OpenAI 与 Anthropic 尚未上市的本年内,Cerebras 股价及市值或仍有一定上行空间。

后续 2-3 年内,如果能够如期将 OpenAI、AWS 等订单转化为实际营收,Cerebras 股价或将进一步上探;但如果订单表现不及市场预期,或 AI 模型推理需求有变,其股价则将大幅承压。

总而言之,1-3 年内,Cerebras 无力取代英伟达,但却能在 AI 基础设施细分市场占据一定份额,成为“AI 芯片速度之王”。至于更长维度的行业竞争格局,尚需一定时间验证。

推荐阅读

十年押注Cerebras:「晶圆级AI芯片」如何登上纳斯达克

Cerebras AI 芯片打破英伟达垄断脱颖而出:万字长文详解Cerebras技术设计

相關問答

QCerebras的芯片WSE-3与传统GPU相比有何主要特点?

ACerebras的WSE-3是晶圆级芯片,面积约46,225平方毫米(相当于晚餐盘大小),内含4万亿晶体管和90万个AI优化核心,提供125 petaflops的计算力。其核心创新在于将整个晶圆制作为一个单一巨型处理器,避免了多GPU互联的瓶颈,片上SRAM高达44GB,拥有极高的内存带宽。据称,其运行速度比英伟达等竞争对手的芯片快15-20倍。

QCerebras与OpenAI之间有哪些具体的合作关系?

ACerebras与OpenAI有多层次的合作关系。首先,OpenAI是Cerebras的最大客户,双方签署了价值超过200亿美元的“750MW推理算力采购协议”,并有扩展至2GW的选择权。其次,OpenAI曾向Cerebras提供10亿美元的营运资金贷款,是Cerebras的债权人。最后,根据协议,OpenAI未来可能以极低行权价获得Cerebras约10%-11%的股权,成为其潜在大股东。

Q根据文章分析,Cerebras在短期内无法成长为像英伟达那样的行业巨头,主要原因有哪些?

A主要原因有四:1. 生态系统差距巨大:英伟达的CUDA软件栈是行业标准,而Cerebras的软件栈成熟度和兼容性远不及。2. 规模与路线差异:英伟达收入高达数百亿美元,覆盖全场景,而Cerebras收入相对较少(2025年为5.1亿美元),且客户集中。3. 制造成本不同:Cerebras的晶圆级芯片制造难度大、产量低、单价高,规模效应不如英伟达。4. 竞争压力:Cerebras面临Groq、AMD、Google TPU等多方竞争,目前定位更偏向高端小众市场。

QCerebras的IPO首日股价表现如何?

ACerebras在IPO首日开盘后不久,股价从185美元的发行价一度暴涨至385美元,最高涨幅超过108%。尽管随后有所回落,但收盘时股价仍在311美元左右,较发行价上涨超过68%。

QCerebras CEO Andrew Feldman认为公司的技术护城河是什么?

AAndrew Feldman表示,Cerebras是70年来唯一成功制造“巨型芯片”(晶圆级芯片)的公司,其他尝试者都失败了,因此他认为公司的“技术护城河既宽且深”。他强调其芯片比竞争对手的芯片大58倍,且运行速度快15-20倍,这构成了其核心的技术优势。

你可能也喜歡

AI时代,入职如何不再「从零交接」

本文以作者加入Ramp公司的入职经历为切入点,探讨了在AI时代企业如何解决新员工“从零开始”的漫长适应期问题。文章指出,高速运转的公司不能依赖新人缓慢阅读文档和询问同事来获取上下文,而AI工具若各自为战,也无法发挥真正价值。 核心观点在于,企业需要构建一个持续更新、可信赖的“公司大脑”——一个系统化的知识底座。这个系统应自动吸收并沉淀会议记录、文档、Slack讨论、客户反馈和产品决策等所有内部信号,使其成为新员工和各类AI Agent统一、可随时查询的上下文来源。 作者分享了自己在Ramp前100天的实践:建立以Obsidian为核心、由Claude驱动的个人知识库,集成会议转录、笔记等内容;利用工具自动化归档信息;并在此基础上开发能自动生成会议议程、提炼产品动态等小型技能库。这些组件共同构成了一个可扩展的上下文层。 文章强调,当前企业AI应用多停留在为特定任务构建孤立“聊天机器人”的阶段,缺乏一个共享的、理解公司整体运作的“大脑”。真正的转型在于优先构建这个上下文基础设施,让入职、AI协作乃至客户接入都能从同一套丰富的背景知识开始,从而极大提升效率,让“快速上手”成为常态。 最终目标是,当“熟悉业务”这个阶段因其成本极低而不再被特别提及时,就意味着企业成功建立了高效的知识交接与复用系统。

marsbit7 小時前

AI时代,入职如何不再「从零交接」

marsbit7 小時前

交易

現貨
合約
活动图片