|
一切跟算力有关的产品,产能都遭遇到了AI需求的挤占,过去是存储,现在轮到CPU。目前,英特尔、AMD都在推动产品涨价,涨幅在10%-15%之间。 “听说CPU的提货周期已经延长到8个月了。”一位长期跟踪存储产业的研究员援引知情人士的消息说。 在这种背景下,ARM决定入局CPU芯片自研,注意不是GPU自研。 “我要明确表态——我们现在进入了一个对ARM而言全新的业务领域,我们正在供应CPU。”当地时间3月24日,ARM CEO雷内·哈斯(Rene Haas)在一场官宣的发布会上说。 根据ARM提供的数据,其首颗自研AGI CPU搭载136个ARM Neoverse V3核心,每核心提供6GB/s内存带宽、低于100纳秒的访问延迟,热设计功耗为300瓦;单个风冷机柜最高可容纳60颗CPU,即8160个核心,若采用液冷方案,总核心数可以突破45000个。 ARM AGI CPU采用台积电3纳米工艺制造,由两块独立芯粒封装而成,作为一颗完整芯片协同运行。ARM强调,相较于同类x86芯片,每机柜性能功耗比提升超过两倍,每吉瓦AI数据中心容量可为客户节省高达100亿美元的资本支出。 目前芯片已完成测试,计划于2026年下半年进入量产。 01 98%毛利率不香了?ARM的“IP授权”模式链路清晰,设计芯片架构,将知识产权授权给苹果、英伟达、高通等公司,然后坐收授权费和版税。 不要工厂,不需要生产线,毛利率高达98%,属于全行业最高水平之一。 有分析师将这种模式称为“躺着印钱”——每一颗搭载ARM架构的芯片出货,这家公司都能分到一笔钱,全球迄今出货超过3250亿颗。 那么,哈斯为什么要放弃这个近乎完美的模式?财报里已有信号。 ARM最新一个财季的营收达到创纪录的12.4亿美元,同比上涨26%,连续四个季度单季破10亿美元,其中版税收入(芯片出货分成)增长27%,但由于5.05亿美元的许可收入(IP授权)低于分析师预期的5.19亿美元,市场立即作出负反馈——其股价盘后下跌超过5%。 芯片出货分成相关的版税收入属于滞后指标,许可则是领先指标,反映客户愿意为下一代技术预付多大的赌注。许可收入的波动,让投资者很难为ARM的AI故事建立稳定的估值模型。 ARM必须回答一个问题:增量订单在哪里? 所以,被动等待IP授权许可,不如直接下场自研出售芯片,将收入结构从“等单上门”转变为持续的硬件销售流水,创造可持续、规模化、可预测的硬件收入。当然,代价则是98%这种超高毛利率被侵蚀。 可以这样理解,ARM的转向是在IP授权模式触及天花板之前,主动规划第二增长曲线。 02 ARM服务器CPU“站起来了”ARM架构的服务器CPU,靠谱吗?英伟达已给答案。 2021年GTC,英伟达就推出了ARM架构的Grace CPU,并搭配Blackwell GPU在大量数据中心部署,新一代的Vera CPU也已经量产。 此次ARM的发布会上,黄仁勋亲自发视频祝贺,称双方合作近二十年,ARM的适应性使英伟达得以将其整合至“全平台、全AI阶段”。 之所以请黄仁勋来站台背书,ARM也就是想强调其解决方案已经被市场上最成功的AI芯片公司用实际销售额反复验证。现在自己下场,某种程度上只是“去掉了英伟达这个中间商”,将原本版税分润的收益,以硬件利润的形式收入囊中,在自己的商业模式中完成了闭环。 事实上不仅是英伟达,全球主流云厂几乎都在转向ARM架构服务器CPU:亚马逊AWS的Graviton 5搭载192个ARM核心,2025年AWS新增算力中大多数由其驱动;微软Azure的Cobalt 200拥有132个核心。这些公司已在ARM架构上投入了数十亿美元的研发资源,构建了庞大的软件生态。 ARM对服务器CPU市场的影响,刚刚正在从专利,转向生态。 03 GPU为CPU“带货”站在市场的逻辑,GPU的暴增和AI芯片自研的阵营越来越大,不仅加大了对HBM内存的需求,也带来了CPU需求的增长。 腾讯科技此前给了一个数据——2026年台积电的CoWoS晶圆产能是1150000片。按双Die芯片总面积1500mm2、80%良率估算,全年可产出约4324万颗GPU芯片。若按每8颗GPU搭配2颗CPU的比例,4324万颗GPU共需要1081万颗CPU。 注意,这1000多万颗对应的是AI服务器的需求,不包含通用服务器,由于英特尔、AMD已经供不应求了,所以这是文章开头提到的涨价的逻辑,也是提货周期变长的原因。 行业研究机构Futurum Group将这一现象称为“悄然而至的供应危机”,并预测到2028年CPU市场增速将超越GPU。 ARM下场做AGI CPU,着重强调了自己与x86架构的优势——每机柜性能功耗比是同类芯片的两倍,并表示每吉瓦AI数据中心容量可节省高达100亿美元的资本支出。这对于Meta、微软、谷歌这些正在大手笔建设数据中心的超大规模云厂商而言,存在巨大的吸引力。 Creative Strategies预测,数据中心CPU需求将从2026年的250亿美元增长至2030年的600亿美元;若叠加AI智能体的需求,这一数字将接近1000亿美元。即便ARM只能拿下其中一个零头,也足以支撑哈斯描绘的财务蓝图。 04 先和Meta抱团“造芯”扎克伯格和他的Meta虽然在这一代模型上掉进了大坑,但一直在算力市场玩的风生水起,又是买卡又是自研,不久之前也公布了新一代MTIA芯片。 ARM下场做AGI CPU,也选择了和Meta抱团:一方面当客户,一方面作为联合开发者。 Meta软件工程师保罗·萨阿布从2023年项目启动之初便全程参与芯片设计。他解释了Meta入局的动机:“在当今世界,真正的玩家屈指可数。这为我们的生态系统又增添了一个新选择。” 根据财报电话会议的数据,Meta今年资本支出高达1350亿美元,正在路易斯安那、俄亥俄、印第安纳等地大规模建设AI数据中心,仅路易斯安那州的“Hyperion”超级数据中心装机容量就达5吉瓦。不过,在此前,Meta的CPU几乎完全依赖英特尔和AMD。 多一个ARM可选项,就多一条供应链、多一个议价筹码。 萨阿布直言:“我们不是芯片公司,我们希望它能面向全世界开放。” Meta之外,OpenAI、Cloudflare、SAP、SK电信、Cerebras也相继确认为早期客户。我记得在ARM给的新闻稿中,引述了一大批科技巨头们的支持言论,包括AWS、谷歌、微软、英伟达、三星电子、台积电等超过50家公司为ARM站队。 资深芯片行业研究员穆尔黑德强调:如果ARM能拿到Meta未来年度资本支出的5%,就已经是“改变游戏规则”的量级,而Meta只是其客户名单中的第一个。 05 五年250亿美元下场自研AGI CPU,在哈斯的财务蓝图中:ARM预期五年内,年营收达到250亿美元,约为当前的五倍,其中AGI CPU贡献约150亿美元,传统IP授权业务翻倍贡献约100亿美元。 虽然在CPU涨价潮下官宣自研,但ARM早在2023年就已秘密启动芯片研发。 外媒报道显示,当时ARM拿出了7100万美元在德克萨斯州奥斯汀建立专属芯片实验室,从一支曾经规模极小的团队壮大至逾1000名工程师。 只不过,虽然有IP护城河以及英伟达等在ARM服务器CPU市场的验证,硬件业务要面临包括供应链管理、客户服务、竞争响应等在内的诸多问题,每一项都是ARM从未系统性面对过的挑战。 另外,作为对手,英特尔和AMD也不会坐视增量市场份额被抢走,x86阵营数十年积累的软件生态和客户惯性,依然是ARM需要逐步攻克的壁垒。 好在整个市场的需求不断地被AI推高,只要产品被客户验证可靠,再加上它还没有GPU这样的出口管制,最终产品可以在全球市场里“畅通无阻”。 现在的ARM,最在意的可能是台积电的量产交付能力了。
|