通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  大元帅

注册:2007-12-102075
跳转到指定楼层
1#
发表于 2025-9-9 11:17:29 |只看该作者 |倒序浏览
最近,随着博通赢得了更多ASIC的订单,有关博通要将英伟达拉下马的消息甚嚣尘上。
但我们认为,关于博通公司和英伟达公司在人工智能数据中心领域陷入零和博弈的普遍说法是误导性的。事实上,这两家公司玩的截然不同的游戏。
英伟达构建了一个垂直整合的计算和软件平台,成为人工智能工厂时代的引擎。相比之下,博通则围绕连接性、定制芯片和高利润软件构建了持久的商业模式。这些战略相互重叠,但并非相互排斥。我们认为,真正的故事在于这些公司如何在互联网诞生以来最重要的技术周期中,找到互补的定位。
在这篇突发分析中,我们研究了博通和 Nvidia 的不同策略,并解释了为什么一个公司的成功并不一定意味着另一个公司的前景被削弱。
Nvidia 的平台战略:掌控 AI 工厂
英伟达的战略概念简单,但复制起来却异常困难。该公司构建了一个全栈平台,从图形处理器(GPU)开始,延伸到整个系统。黄仁勋反复强调,竞争的焦点不再是芯片,而是系统,或者说,英伟达所称的“AI工厂”。对于任何想要建立这些工厂的企业来说,英伟达都将自己定位为不可或缺的供应商。
Nvidia 堆栈的核心是 Hopper 和 Blackwell 等 GPU,它们与 NVLink/NVSwitch 互连技术配对,形成紧密耦合的计算域。这些“pod”可扩展至 72 个 GPU,从而创建高带宽、低延迟的计算岛,并针对 AI 训练等极端并行处理工作负载进行了优化。
Nvidia 使用 InfiniBand(这是 Nvidia 从 Mellanox 收购而来的专有网络技术)将这些 Pod 向外扩展。此外,Nvidia 还利用了其 Spectrum-X 以太网,这是一种专用以太网结构,旨在确定性地处理 AI 流量。
硬件之上是 CUDA 软件堆栈和数百个库,这些库构成了软件粘合剂,使这些系统能够进行可编程和高度调优。Nvidia 的软件护城河非常深厚,成千上万的开发者被锁定在其生态系统中,并广泛支持几乎无限数量的用例。
此外,该公司还提供用于模拟和数字孪生的系统和服务,例如 DGX、NIMS 推理微服务和 Omniverse,进一步巩固了其作为平台而非仅仅是芯片供应商的地位。
创新的节奏永无止境。每年,Nvidia 都会推出新的架构,以提供 更佳的每瓦性能和更高的集群利用率。这种年度节奏将资本支出转化为一个循环的货币化周期。当功耗成为制约因素且系统未得到充分利用时,客户就会增加支出,从而产生更多每瓦代币收益,并大规模降低单位成本。
博通的特许经营模式:持久、开放、盈利
博通的做法与英伟达截然不同。首席执行官陈福阳和博通半导体解决方案事业部总裁Charlie Kawwas并没有追逐GPU或打造大型AI系统。相反,博通的策略是找到能够持久发展的特许经营权——拥有十年或更长时间发展空间的市场——建立技术领先地位,并以严格的运营纪律来运营它们。
一些投资者对博通避之不及,称其为“商品玩家”。我们认为,这种说法是误导性的,缺乏对博通产品(包括其无线产品组合)所需工程投资的理解。
在半导体领域,博通已在连接领域占据主导地位。其Tomahawk和Jericho系列产品在商用以太网交换领域占据主导地位。此外,它还赢得了谷歌、Meta以及可能还有字节跳动的定制芯片设计订单,将博通深度嵌入超大规模人工智能建设领域。这些交易规模数十亿美元,期限较长,具有高度战略意义。该公司刚刚宣布完成了另一笔价值100亿美元的定制芯片交易,据悉是与OpenAI达成的。OpenAI与超大规模计算厂商一样,正在设计自己的芯片,以减少对英伟达的依赖。
在上次财报电话会议上,Tan 无意中说出了一句讽刺的话:
目前的 AI 机架使用专有的 NVLink 连接,仅能以每秒 28.8 Tbps 的带宽扩展 72 个 GPU。另一方面,今年早些时候,我们推出了与 OpenAI合作的 Tomahawk 5—— 抱歉,它采用了开放以太网,可以为使用 XPU 的客户扩展 512 个计算节点。
这次失言发生在他宣布最新一笔 100 亿美元定制芯片交易之后,这让包括我们在内的许多观察家得出结论,OpenAI 显然已经(以一种好的方式)融入了Tan的头脑中。
Charlie Kawwas 的口头禅是“OSP”。它代表着开放、可扩展、节能,也体现了博通的理念。该公司坚信, 以太网和 PCIe 等开放标准最终将战胜 InfiniBand 和 NVLink 等专有方法。历史经验表明,这是一个不错的选择,这也是英伟达也拥抱以太网的原因。
在软件领域,博通围绕 VMware Cloud Foundation 重塑了 VMware,并发布了 VCF 9.0,声称数千名工程师共同打造了该捆绑包,成功整合了所有不同的 VMware 软件模块。博通强制客户签订高价值合同的策略虽然备受争议,但已使其营业利润率超过 70%,毛利率超过 90%,远高于其他软件即服务 (SaaS) 的毛利率。此外,我们认为,VMware 已成为公有云最强大的本地替代方案,并且代表了市场上最成熟的私有云产品。
博通 VMware 战略的奇特之处在于,Hyper-V、Nutanix、Red Hat 等替代方案如今势头强劲,而此前它们在虚拟化领域被拒之门外。博通不希望客户不愿为完整的 VCF 堆栈付费,但盈利能力远不及博通的替代厂商却乐于接手这项业务。
下图展示了 Enterprise Technology Research 针对虚拟化市场的 Net Score 方法。纵轴(Net Score)表示客户在每个平台上支出增加的净百分比,横轴表示数据集的渗透率。这些数据会让人认为 VMware 正陷入困境,因为它自 2023 年 1 月起急剧下降。但该方法并未反映支出金额。因此,它忽略了一个事实:博通的策略是将精力更集中于那些愿意花钱购买整个 VCF 捆绑包以降低总拥有成本的高价值客户。
这是博通的经典做法。它只在能够占据主导地位的市场竞争。就VMware而言,重要的不是品牌标识的数量,而是愿意承担价格上涨并购买全套产品的客户数量。与许多误导性的说法相反,博通在工程设计方面投入巨资,并在其平台上部署了能够带来显著投资回报的关键技术。这就是为什么(例如)就连英伟达也从博通购买网络技术的原因。
归根结底,博通无需在 GPU 领域与英伟达正面交锋就能蓬勃发展。相反,它提供的是构成大型 AI 系统所需的“粘合剂”——SerDes、NIC、光器件和交换机。用 Kawwas 的话来说,博通并不生产 GPU,而是生产驱动 XPU 和 HBM 运行的部件。此外,它还获得了数十亿美元的长期合同,为包括谷歌、Meta、字节跳动以及现在的 OpenAI 在内的一些全球顶尖公司打造定制 AI 芯片。
规模与性能:技术权衡
两家公司之间的一个主要焦点是规模问题。在博通最近的财报电话会议上,陈文卓将英伟达的 NVLink 72 描述为 “仅能以每秒 28.8 Tbps 的速度扩展 72 个 GPU”, 并将其与博通使用 Tomahawk 5 连接 512 个节点的以太网结构进行了对比。从表面上看,这让英伟达的方法显得有些局限。但我们认为这种比较具有误导性。
我们对 Nvidia 使用的“扩大、扩大、跨越”术语的解读  如下:
  • Scale-up = 单个机架中的紧密耦合节点(NVLink/NVSwitch)。
  • Scale-out = 跨机架集群(InfiniBand/以太网)。
  • Scale-across  = 跨越数据中心。

在Tan的讲话中,博通似乎更宽泛地使用了“scale up”一词,将其理解为 “支持超过72个GPU的更大集群”。 但从技术角度来看,用以太网连接512个计算节点是一种scale-out结构,而不是scale up。具体来说,纵向扩展通常被认为是通过紧密耦合组件来扩大单个逻辑系统。想象一下在单个设备中实现对称多处理。
我们认为,Tan 将 NVLink 的机架级岛(72 个 GPU)归类为小型,并将其与博通基于以太网连接数百个节点的能力进行对比。他这样说,滥用了术语,将以太网的集群扩展称为“纵向扩展”,而实际上,用传统的说法,它应该是“横向扩展”。
相比之下,Nvidia 的 72 个 GPU 指的是紧密耦合的 NVLink 域,其中高带宽内存池在 GPU 之间共享,从而实现高效的并行操作。Broadcom 的 512 个节点实际上指的是以太网结构的横向扩展能力。这并不是一个同类的比较。这两种方法解决了不同的问题。NVLink 可以在机架内最大化性能,而以太网则可以跨机架和行扩展集群。
权衡之下,NVLink 可提供每 GPU 的峰值性能,而以太网则提供性能级可扩展性和经济性。实际上,运营商会同时使用这两种技术:NVLink 用于高性能计算岛,以太网则用于将这些计算岛连接在一起。
财务状况:均出色
英伟达和博通的财务模式凸显了它们不同的战略。表面上看,两家公司都取得了非凡的业绩,但实现目标的方式却截然不同。
英伟达目前的年营收约为 1870亿美元,同比增长 56%,令人印象深刻。尽管与前几个季度的三位数增长率相比有所放缓,但这仍然是所有大型上市公司中增长最快的之一。利润率同样令人印象深刻:毛利润率73%,营业利润率65% , 经营现金流33% 。凭借超过4万亿美元的市值  和 22倍的营收倍数,英伟达被估值为一家百年一遇的成长型公司,而非传统的半导体供应商。
我们认为,这反映出投资者对英伟达全栈AI工厂战略的信心,认为其未来还有多年的发展空间,包括年度节奏升级、CUDA软件锁定以及超大规模需求弹性,这些因素将维持其发展势头。此外,在功耗成为限制因素,且利用率/效率可以通过快速技术更新实现提升的情况下,其经济价值主张也极具吸引力。
在最近的财报电话会议上,Nvidia 强调了 Blackwell 的增长潜力,其 NVLink 72 部署在推理工作负载上的效率比 Hopper 提高了 10 倍。管理层强调,推理业务现已成为与训练业务并驾齐驱的重要收入来源。就投资回报率而言,弹性(杰文斯悖论)使 Nvidia 能够在保持收入增长的同时降低每个代币的价格。
相比之下,博通则以不同的方式取得了非凡的业绩。该公司的年化收入运行率约为 640 亿美元,同比增长 22% ,虽然增长稳健,但幅度较小 。上个季度,其非人工智能半导体产品表现不佳,但预计会环比增长。博通 67%的毛利率 低于英伟达,但博通在现金创造方面表现出色,其 营业现金流利润率为 45%  ——考虑到其业务规模,这是一个了不起的数字。营业利润率为 37%,远低于英伟达,但与博通的半导体和基础设施软件组合保持一致。
其估值约为1.6万亿美元 ,市盈率为25倍,引人注目。投资者之所以关注博通,并非因为其高速增长,而是因为其持久性、严谨性和战略定位:作为人工智能基础设施的连接点、定制人工智能芯片的首选供应商以及其VMware资产的价值创造者。
博通近期的财报凸显了Tomahawk 5集群的扩展能力,其规模远超NVLink pod的规模。我们注意到Tan先前声明中的一些补充说明,正如之前所述。Tan重申,VMware Cloud Foundation的采用已提前完成,软件利润率已接近70%。AI芯片的营收运行率达到约160亿美元,这得益于定制超大规模客户的订单,以及据广泛报道与OpenAI达成的一项价值100亿美元的激动人心的交易。
我们认为,这些财务指标凸显了英伟达是一家高速增长的平台型公司,其估值高于其发展速度;而博通则是一家稳健的复合型公司,其估值源于其稳定性、现金流和长期特许经营权。两种模式都堪称卓越,两家公司都是人工智能运动的基石,但它们在人工智能时代如何捕捉价值方面却体现了截然不同的理念。
市场和投资者影响
我们认为这些策略的意义在于:
这不是零和博弈。 两家公司都能蓬勃发展。英伟达主导加速计算领域,博通则主导连接和软件货币化领域,从而与人工智能时代一些规模最大、最重要的平台建立了极具价值的长期合作关系。
系统是竞争的核心。 效率的衡量标准是每瓦性能和利用率。Nvidia 通过内部组件驱动这些性能,而 Broadcom 则通过跨架构驱动。尽管两家公司都拥抱标准,但 Nvidia 围绕芯片、软件、库、完整系统和生态系统构建了专有的护城河。Broadcom 则利用开放的生态系统,其护城河在于运用工程和技术领导力,创造出对完整系统运行至关重要、开发难度极高的产品。
风险状况。 英伟达面临需求弹性、超大规模内包/风险敞口、供应限制以及公共政策阻力(尤其是中国市场)。博通在人工智能方面也面临类似的需求风险,需要在 VMware 的利润目标与客户反感以及高度集中的定制芯片客户之间取得平衡。
投资者视角。 英伟达的交易表现为一只高增长动能股。博通的交易表现为一只具有高利润率的持久复合型股票。两家公司的股价均高于大盘,但考虑到它们的盈利能力和增长率,投资者对这两家公司都给予了回报,并且只要人工智能的势头持续下去,这种回报就将继续下去。
结论
我们认为,市场不应再将博通和英伟达视为零和博弈中的对手。此外,一些专家认为博通只是一家商品公司,这种说法在我们看来是荒谬的。英伟达和博通玩的是不同的游戏,而这两款游戏对人工智能时代都至关重要。英伟达构建了驱动新工作负载的计算引擎和软件平台。博通则确保这些引擎能够扩展、互联互通,并在未来十年内实现盈利。
我们的研究表明,随着人工智能从云端迁移到企业,再到现实世界系统,英伟达和博通都将以截然不同但高度协同的方式拓展各自的护城河。真正的较量并非发生在它们之间,而是在这种新架构与其正在取代的传统计算堆栈之间。


举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2025-9-9 18:21 , Processed in 0.355149 second(s), 18 queries , Gzip On.

Copyright © 1999-2025 C114 All Rights Reserved

Discuz Licensed

回顶部