英伟达Blackwell平台营收创下纪录,环比增长17%。我们已于第二季度启动GB300的量产交付。我们为云服务提供商、新兴云厂商、企业及主权实体打造的全栈式 AI 解决方案,均为营收增长作出了贡献。我们正处于一场将改变所有行业的工业革命开端,预计到本十年末,全球 AI 基础设施支出规模将达到3万亿至4万亿美元。
相较于上一代 Hopper 平台(前代 AI 计算平台),GV300 与 DL72 AI 工厂在 “每瓦令牌数” 能效上实现了 10 倍提升 —— 这一优势将直接转化为营收,因为数据中心的算力部署往往受电力容量限制。Rubin 平台(下一代 AI 计算平台)的各类芯片已进入晶圆制造阶段,包括 Vera CPU(中央处理器)、Rubin GPU(图形处理器)、CX9 Super NIC(超级网卡)、NVLink 144 横向扩展交换机、Spectrum X 横向与跨域扩展交换机,以及硅光子处理器。Rubin 平台的量产计划仍按原时间表推进,将于明年实现批量生产;该平台将成为我们的第三代 NVLink 机架式 AI 超级计算机,配套供应链已成熟且具备规模化能力。
这一进展使我们能够保持 “每年一款新产品” 的迭代节奏,并在计算、网络、系统及软件领域持续创新。
在竞争激烈的市场中,我们希望赢得每一位开发者的支持。若美国能积极参与全球竞争,其 AI 技术体系完全有潜力成为全球标准。本季度值得关注的亮点是,Hopper 平台(前代 AI 计算平台)及 H200(产品型号)的出货量实现增长。此外,第二季度我们还向中国境外不受限的客户销售了约 6.5 亿美元的 H20 产品。Hopper 平台需求的环比增长,既体现出加速计算所支撑的数据中心工作负载覆盖范围之广,也彰显了 CUDA 库(英伟达核心计算库)与全栈式优化技术的强大实力 —— 这些技术正持续提升平台的性能表现与经济价值。
目前我们仍在同时交付 Hopper 与 Blackwell 系列 GPU,重点聚焦于满足全球激增的市场需求。云厂商与企业的资本支出是推动这一增长的核心动力:仅今年一年,全球在数据中心基础设施与计算领域的投资规模预计就将达到 6000 亿美元,这一数字在两年内几乎实现翻倍。我们预计,受多重因素驱动,AI 基础设施的年度投资将持续增长,这些因素包括:推理型智能体 AI(reasoning agentic AI)对训练与推理算力提出数量级提升的需求、全球各国主权 AI 基础设施建设、企业对 AI 技术的广泛采用,以及物理 AI 与机器人技术的兴起。Blackwell 平台已树立行业标杆,成为 AI 推理性能的全新标准。随着推理型与智能体 AI 在各行业的应用逐步落地,AI 推理市场正快速扩张。
AI 行业正迅速采用这一革命性技术,包括 AWS(亚马逊云科技)、Google Cloud(谷歌云)、Microsoft Azure(微软 Azure)、OpenAI 在内的行业领军企业,以及 Cohere、Mistral、Kimi AI、Perplexity、Reflection、Runway 等机构均已开始应用。在最新的 MLPerf 训练基准测试中,GB200 平台包揽所有项目冠军,进一步验证了英伟达的性能领先地位。敬请关注将于 9 月发布的 MLPerf 推理测试结果,其中将包含基于 Blackwell Ultra 平台的基准数据。目前,面向全球系统制造商的英伟达 RTX Pro 服务器已全面量产,这类空冷式 PCIe 架构服务器可无缝集成到标准 IT 环境中,既能运行传统企业 IT 应用,也可支持最先进的智能体 AI 与物理 AI 应用。
已有近 90 家企业(包括多家全球龙头企业)采用 RTX Pro 服务器:日立(Hitachi)将其用于实时仿真与数字孪生技术研发,礼来(Lilly)用于药物研发,现代(Hyundai)用于工厂设计与自动驾驶验证,迪士尼则用于沉浸式叙事内容创作。随着企业加速数据中心现代化升级,RTX Pro 服务器有望成为营收达数十亿美元的产品线。
主权 AI 正处于快速发展阶段:各国凭借本土基础设施、数据与人才自主研发 AI 的能力,为英伟达创造了重大机遇。英伟达在英国与欧洲的多项标志性项目中均处于核心地位。欧盟计划投资 200 亿欧元,在法国、德国、意大利与西班牙建立 20 个 AI 工厂,其中包括 5 个超级工厂,目标是将其 AI 计算基础设施规模提升 10 倍。在英国,搭载英伟达技术的 Umbard AI 超级计算机已正式亮相,作为该国性能最强的 AI 系统,其 AI 算力达 21 艾字节浮点运算(exaflops),将加速药物研发、气候建模等领域的突破性进展。预计今年我们在主权 AI 领域的营收将超过 20 亿美元,较去年增长逾一倍。
网络业务营收创下 73 亿美元的纪录。AI 计算集群需求的不断攀升,对网络的高效性与低延迟提出了更高要求。在 Spectrum X 以太网、InfiniBand(高性能互联技术)与 NVLink 等产品需求强劲的推动下,网络业务营收环比增长 46%,同比增长 98%。我们的 Spectrum X 增强型以太网解决方案,为以太网 AI 工作负载提供了最高吞吐量与最低延迟的网络支持。Spectrum X 以太网业务营收环比与同比均实现两位数增长,年化营收超 100 亿美元。在 Hotchips(半导体行业会议)上,我们发布了 Spectrum XGS 以太网技术,该技术可将多个分散的数据中心整合为千兆级 AI 超级工厂。CoreWeave(云服务提供商)是该解决方案的首批采用者,预计其 GPU 间通信速度将实现翻倍。
在 XDR 技术(新一代互联技术)广泛应用的推动下,InfiniBand 业务营收环比增长近一倍。相较于前代技术,XDR 技术的带宽提升一倍,对模型研发机构而言尤其具有价值。作为全球速度最快的交换机,NVLink 的带宽是 PCIe 5 代的 14 倍,随着客户部署 Blackwell NVLink 机架式系统,其业务实现强劲增长。NVLink Fusion 技术(可支持半定制化 AI 基础设施)获得市场广泛认可:日本即将推出的 Fugaku Next 超级计算机,将通过 NVLink Fusion 技术把富士通(Fujitsu)的 CPU 与我们的架构整合,可运行 AI、超级计算、量子计算等多种工作负载。目前,已有越来越多顶尖量子超级计算与研究中心采用英伟达 CUDA Q 量子计算平台,Fugaku Next 便是其中之一,其他还包括 ULEC、AIST、NNF、NERSC 等机构;该平台得到 300 多家生态合作伙伴的支持,包括 AWS、Google Quantum AI、Quantinuum、QEra、SciQuantum 等。
此外,我们全新的机器人计算平台 THOR 现已正式上市。相较英伟达 AGX Orin(前代机器人计算平台),THOR 的 AI 性能与能效均实现数量级提升,可在边缘设备实时运行最新的生成式 AI 与推理型 AI 模型,为顶尖机器人技术提供支持。英伟达机器人全栈平台的采用率正快速增长:目前已有超 200 万名开发者,以及 1000 多家软硬件应用与传感器合作伙伴基于我们的平台开展业务并推向市场。
对于 AI 爱好者而言,端侧 AI 在 RTX 系列 GPU 上的运行效果最佳。我们与 OpenAI 合作,对其开源 GPT 模型进行优化,使其能在数百万台支持 RTX 技术的 Windows 设备上实现高质量、高速且高效的推理。借助 RTX 平台体系,Windows 开发者可开发面向全球最大规模 AI PC 用户群体的 AI 应用。
专业可视化业务营收达 6.01 亿美元,同比增长 32%。增长动力来自高端 RTX 工作站 GPU 的广泛采用,以及设计、仿真、原型制作等 AI 驱动型工作负载的需求提升。核心客户正借助我们的解决方案提升运营效率:动视暴雪采用 RTX 工作站优化创意工作流,而机器人创新企业 Figure AI 则通过 RTX 嵌入式 GPU 为其人形机器人提供算力支持。
相较于 “单次触发” 模式,推理型智能体 AI 模型所需的算力可能达到 100 倍、1000 倍,若涉及更复杂的研究任务(如大量文献阅读与理解),算力需求甚至可能更高。因此,智能体 AI 的出现使得算力需求大幅增长,其效用也随之显著提升。得益于智能体 AI,AI “幻觉”(指 AI 生成虚假或错误信息的现象)问题的发生率大幅下降;如今,AI 不仅能调用工具,还能执行具体任务,这为企业应用打开了全新空间。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):好的,谢谢。如你所知,仅全球四大超大规模云厂商(hyperscalers)的资本支出,就在两年内实现了翻倍。随着 AI 革命全面推进、AI 竞赛正式打响,这类资本支出已增至每年 6000 亿美元。从现在到本十年末还有五年时间,而这 6000 亿美元还仅仅是四大超大规模云厂商的支出规模。
除此之外,其他企业也在建设本地部署(on prem)的数据中心,全球各地的云服务提供商也在持续投入建设。目前,美国的计算资源约占全球总量的 60%。长期来看,人工智能的发展规模与增长速度理应与 GDP 相匹配,当然,AI 本身也将推动 GDP 加速增长。因此,英伟达在 AI 基础设施领域的贡献占据着重要地位。
当然,需要说明的是,我们提供的并非仅仅是 GPU。大家都知道,英伟达以研发并发明GPU而闻名,但在过去十年间,我们已成功转型为一家 AI 基础设施企业。仅打造一套 Rubin AI 超级计算机,就需要六种不同类型的芯片;若要将其扩展到 1 吉瓦规模,则需要数十万个 GPU 计算节点以及大量机架设备。
因此,英伟达本质上已是一家 AI 基础设施企业。我们希望能持续为行业发展贡献力量,让 AI 的应用价值更加广泛;同时,提高 “每瓦性能比”(performance per watt)也至关重要 —— 正如你所提及的,未来全球 AI 基础设施建设或 AI 工厂建设,很可能始终面临电力供应的限制。所以,我们需要尽可能挖掘 AI 工厂的能效潜力。