在财报电话会上,华尔街分析师们就英伟达在中国市场的机遇展开询问。其他问题则聚焦于Blackwell平台的性能优势,以及公司应对潜在ASIC竞争的策略。
英伟达首席执行官黄仁勋(Jensen Huang)强调了公司在人工智能基础设施领域的领先地位。他表示,AI 驱动的新工业革命已开启,Blackwell 作为下一代AI平台表现亮眼,GB300进入全速量产阶段,同时Rubin平台按计划推进。长期看好全球3万亿至4万亿美元AI基础设施市场机遇,将持续以全栈式解决方案巩固行业领先地位。
他还着重指出了人工智能所带来的变革性影响,并评论道:“一场新的工业革命已经开启,人工智能竞赛已然打响。”
完整文字实录 —— 英伟达公司(NVDA)2026 财年第二季度会议
会议主持人萨拉(Sarah):下午好。我是萨拉,今天由我担任本次会议的主持人。此刻,欢迎各位参加英伟达2026财年第二季度财务业绩电话会议。为避免背景噪音干扰,所有线路已设置为静音状态。在发言嘉宾陈述完毕后,将进入问答环节。
英伟达主持人/投资者关系部托希亚・哈里(Toshiya Hari):谢谢。各位下午好,欢迎参加英伟达2026财年(相关会议)的电话会议。今天与我一同出席会议的英伟达高管包括:公司总裁兼首席执行官黄仁勋(Jensen Huang),以及执行副总裁兼首席财务官科莱特・克雷斯(Colette Kress)。在此提醒大家,本次会议正在英伟达投资者关系官网进行同步网络直播。直播回放将持续开放,直至我们召开讨论2026财年财务业绩的后续会议。
本次会议内容的知识产权归英伟达所有,未经我方事先书面许可,不得擅自复制或转录。在本次会议过程中,我们可能会基于当前预期发表前瞻性陈述。此类陈述受多项重大风险与不确定性因素影响,实际业绩可能与前瞻性陈述存在重大差异。有关可能影响我们未来财务业绩及业务运营的相关因素探讨,请参考今日发布的财务业绩公告、我们最新的10-K 和10-Q表格,以及我们可能向美国证券交易委员会(Securities and Exchange Commission)提交的 8-K 表格。
我们所有陈述均基于今日(2025年8月27日)及目前可获取的信息作出。除法律要求外,我们不承担更新任何此类陈述的义务。在本次会议中,我们将讨论非公认会计原则(non-GAAP)财务指标。有关非公认会计原则财务指标与公认会计原则(GAAP)财务指标的调节表,可在我们发布于官网的首席财务官评论中查阅。接下来,我将会议主持权交给科莱特(Colette)。
英伟达执行副总裁兼首席财务官科莱特・克雷斯(Colette Kress):谢谢你,托希亚。尽管仍需应对持续变化的外部环境,我们依旧交出了又一个创纪录的季度业绩。总营收达 467 亿美元,超出我们此前的预期 —— 所有市场平台的营收均实现环比增长。数据中心业务营收同比增长 56%;即便H20营收减少40亿美元,数据中心业务营收仍实现环比增长。
英伟达Blackwell平台营收创下纪录,环比增长17%。我们已于第二季度启动GB300的量产交付。我们为云服务提供商、新兴云厂商、企业及主权实体打造的全栈式 AI 解决方案,均为营收增长作出了贡献。我们正处于一场将改变所有行业的工业革命开端,预计到本十年末,全球 AI 基础设施支出规模将达到3万亿至4万亿美元。
这类基础设施建设的规模与范围,为英伟达带来了重大的长期增长机遇。GB200 NBL系统获得广泛采用,已在云服务提供商(CSPs)和消费互联网企业部署;包括OpenAI、Meta、Mastral在内的 “灯塔级” 模型研发机构,正以数据中心规模使用GB200 NBL 7,既用于下一代AI模型的训练,也用于生产环境中的推理模型部署。全新的Blackwell Ultra 平台本季度表现同样强劲,营收达数十亿美元。
得益于 GB300 与 GB200 在架构、软件及物理规格上的共享设计,主流云服务提供商向 GB300 的过渡过程十分顺畅,可轻松搭建并部署 GB300 机架;此次向 GB300 机架式架构的升级实现了无缝衔接。7 月末至 8 月初,我们已顺利完成工厂生产线改造,以支持 GB300 的产能提升;目前,GB300 已全面进入量产阶段,当前产能已恢复至全速水平,每周约生产 1000 个机架。随着新增产能逐步投产,预计第三季度产能将进一步提升。今年下半年,GB300 有望实现广泛的市场供应 —— 云服务提供商 CoreWeave 正准备将其 GV300 实例推向市场,该实例在推理模型上的性能已达到 H100的 10 倍。
相较于上一代 Hopper 平台(前代 AI 计算平台),GV300 与 DL72 AI 工厂在 “每瓦令牌数” 能效上实现了 10 倍提升 —— 这一优势将直接转化为营收,因为数据中心的算力部署往往受电力容量限制。Rubin 平台(下一代 AI 计算平台)的各类芯片已进入晶圆制造阶段,包括 Vera CPU(中央处理器)、Rubin GPU(图形处理器)、CX9 Super NIC(超级网卡)、NVLink 144 横向扩展交换机、Spectrum X 横向与跨域扩展交换机,以及硅光子处理器。Rubin 平台的量产计划仍按原时间表推进,将于明年实现批量生产;该平台将成为我们的第三代 NVLink 机架式 AI 超级计算机,配套供应链已成熟且具备规模化能力。
这一进展使我们能够保持 “每年一款新产品” 的迭代节奏,并在计算、网络、系统及软件领域持续创新。
在竞争激烈的市场中,我们希望赢得每一位开发者的支持。若美国能积极参与全球竞争,其 AI 技术体系完全有潜力成为全球标准。本季度值得关注的亮点是,Hopper 平台(前代 AI 计算平台)及 H200(产品型号)的出货量实现增长。此外,第二季度我们还向中国境外不受限的客户销售了约 6.5 亿美元的 H20 产品。Hopper 平台需求的环比增长,既体现出加速计算所支撑的数据中心工作负载覆盖范围之广,也彰显了 CUDA 库(英伟达核心计算库)与全栈式优化技术的强大实力 —— 这些技术正持续提升平台的性能表现与经济价值。
目前我们仍在同时交付 Hopper 与 Blackwell 系列 GPU,重点聚焦于满足全球激增的市场需求。云厂商与企业的资本支出是推动这一增长的核心动力:仅今年一年,全球在数据中心基础设施与计算领域的投资规模预计就将达到 6000 亿美元,这一数字在两年内几乎实现翻倍。我们预计,受多重因素驱动,AI 基础设施的年度投资将持续增长,这些因素包括:推理型智能体 AI(reasoning agentic AI)对训练与推理算力提出数量级提升的需求、全球各国主权 AI 基础设施建设、企业对 AI 技术的广泛采用,以及物理 AI 与机器人技术的兴起。Blackwell 平台已树立行业标杆,成为 AI 推理性能的全新标准。随着推理型与智能体 AI 在各行业的应用逐步落地,AI 推理市场正快速扩张。
Blackwell 平台的机架式 NVLink(高速互联技术)与 CUDA 全栈架构通过重新定义推理经济性,成功应对了市场需求变化。GB300 平台(产品型号)搭载的全新 NV FP4 4 位精度技术与 NVLink 72 技术,相较 Hopper 平台实现了每令牌能效 50 倍的提升,助力企业以前所未有的规模实现算力商业化变现。例如,对 GV200(产品型号)基础设施投入 300 万美元,可产生 3000 万美元的令牌营收,投资回报率达 10 倍。自 Blackwell 平台发布以来,英伟达的软件创新成果结合开发者生态系统的强大支撑,已使其性能提升超过 2 倍。CUDA、TensorRT LLM(大语言模型推理优化工具)与 Dynamo(动态编译工具)等技术的持续升级,正不断释放平台的最大效率。
开源社区为 CUDA 库贡献的技术成果,与英伟达的开源库及框架已深度集成到数百万个工作流中。这种英伟达与全球社区协作创新的强大良性循环,进一步巩固了英伟达在性能领域的领先地位。英伟达是 OpenAI 模型、数据与软件领域的主要贡献者之一。Blackwell 平台采用了突破性的数值计算方法用于大语言模型预训练:借助 NV FP4 技术,GB300 平台的计算速度相较采用 FP8 技术的 H100提升 7 倍,同时兼具 16 位精度的准确性与 4 位精度的速度及效率优势,为 AI 算力效率与扩展性树立了全新标准。
AI 行业正迅速采用这一革命性技术,包括 AWS(亚马逊云科技)、Google Cloud(谷歌云)、Microsoft Azure(微软 Azure)、OpenAI 在内的行业领军企业,以及 Cohere、Mistral、Kimi AI、Perplexity、Reflection、Runway 等机构均已开始应用。在最新的 MLPerf 训练基准测试中,GB200 平台包揽所有项目冠军,进一步验证了英伟达的性能领先地位。敬请关注将于 9 月发布的 MLPerf 推理测试结果,其中将包含基于 Blackwell Ultra 平台的基准数据。目前,面向全球系统制造商的英伟达 RTX Pro 服务器已全面量产,这类空冷式 PCIe 架构服务器可无缝集成到标准 IT 环境中,既能运行传统企业 IT 应用,也可支持最先进的智能体 AI 与物理 AI 应用。
已有近 90 家企业(包括多家全球龙头企业)采用 RTX Pro 服务器:日立(Hitachi)将其用于实时仿真与数字孪生技术研发,礼来(Lilly)用于药物研发,现代(Hyundai)用于工厂设计与自动驾驶验证,迪士尼则用于沉浸式叙事内容创作。随着企业加速数据中心现代化升级,RTX Pro 服务器有望成为营收达数十亿美元的产品线。
主权 AI 正处于快速发展阶段:各国凭借本土基础设施、数据与人才自主研发 AI 的能力,为英伟达创造了重大机遇。英伟达在英国与欧洲的多项标志性项目中均处于核心地位。欧盟计划投资 200 亿欧元,在法国、德国、意大利与西班牙建立 20 个 AI 工厂,其中包括 5 个超级工厂,目标是将其 AI 计算基础设施规模提升 10 倍。在英国,搭载英伟达技术的 Umbard AI 超级计算机已正式亮相,作为该国性能最强的 AI 系统,其 AI 算力达 21 艾字节浮点运算(exaflops),将加速药物研发、气候建模等领域的突破性进展。预计今年我们在主权 AI 领域的营收将超过 20 亿美元,较去年增长逾一倍。
网络业务营收创下 73 亿美元的纪录。AI 计算集群需求的不断攀升,对网络的高效性与低延迟提出了更高要求。在 Spectrum X 以太网、InfiniBand(高性能互联技术)与 NVLink 等产品需求强劲的推动下,网络业务营收环比增长 46%,同比增长 98%。我们的 Spectrum X 增强型以太网解决方案,为以太网 AI 工作负载提供了最高吞吐量与最低延迟的网络支持。Spectrum X 以太网业务营收环比与同比均实现两位数增长,年化营收超 100 亿美元。在 Hotchips(半导体行业会议)上,我们发布了 Spectrum XGS 以太网技术,该技术可将多个分散的数据中心整合为千兆级 AI 超级工厂。CoreWeave(云服务提供商)是该解决方案的首批采用者,预计其 GPU 间通信速度将实现翻倍。
在 XDR 技术(新一代互联技术)广泛应用的推动下,InfiniBand 业务营收环比增长近一倍。相较于前代技术,XDR 技术的带宽提升一倍,对模型研发机构而言尤其具有价值。作为全球速度最快的交换机,NVLink 的带宽是 PCIe 5 代的 14 倍,随着客户部署 Blackwell NVLink 机架式系统,其业务实现强劲增长。NVLink Fusion 技术(可支持半定制化 AI 基础设施)获得市场广泛认可:日本即将推出的 Fugaku Next 超级计算机,将通过 NVLink Fusion 技术把富士通(Fujitsu)的 CPU 与我们的架构整合,可运行 AI、超级计算、量子计算等多种工作负载。目前,已有越来越多顶尖量子超级计算与研究中心采用英伟达 CUDA Q 量子计算平台,Fugaku Next 便是其中之一,其他还包括 ULEC、AIST、NNF、NERSC 等机构;该平台得到 300 多家生态合作伙伴的支持,包括 AWS、Google Quantum AI、Quantinuum、QEra、SciQuantum 等。
此外,我们全新的机器人计算平台 THOR 现已正式上市。相较英伟达 AGX Orin(前代机器人计算平台),THOR 的 AI 性能与能效均实现数量级提升,可在边缘设备实时运行最新的生成式 AI 与推理型 AI 模型,为顶尖机器人技术提供支持。英伟达机器人全栈平台的采用率正快速增长:目前已有超 200 万名开发者,以及 1000 多家软硬件应用与传感器合作伙伴基于我们的平台开展业务并推向市场。
各行业的领军企业均已采用 THOR,包括敏捷机器人(Agility Robotics)、亚马逊机器人(Amazon Robotics)、波士顿动力(Boston Dynamics)、卡特彼勒(Caterpillar)、Figure(人形机器人公司)、海克斯康(Hexagon)、美敦力(Medtronic)以及元宇宙平台公司(Meta)。机器人应用对设备端及基础设施端的算力需求呈指数级增长,这将成为我们数据中心平台长期需求的重要驱动因素。
英伟达 Omniverse(数字孪生平台)搭配 Cosmos(配套技术),是我们专为机器人及机器人系统研发打造的数据中心级物理 AI 数字孪生平台。本季度,我们宣布与西门子大幅拓展合作伙伴关系,以助力打造 AI 自动化工厂;包括敏捷机器人(Agile Robots)、神经机器人(Neurorobotics)、优傲机器人(Universal Robots)在内的欧洲领先机器人企业,正基于 Omniverse 平台开发最新创新产品。
接下来快速概述各地区营收情况:中国市场在数据中心营收中的占比环比下降至低个位数(注:我们的第三季度业绩展望未包含向中国客户交付H20产品的相关营收)。新加坡地区营收占第二季度开票营收的 22%,这是因为部分客户将开票业务集中在了新加坡;而新加坡地区数据中心计算业务开票营收中,超 99% 来自美国本土客户。
游戏业务营收创下 43 亿美元的纪录,环比增长 14%,同比激增 49%。这一增长得益于 Blackwell 系列 GeForce GPU的产能提升 —— 随着供应量增加,该系列产品销量持续强劲。本季度,我们推出了 GeForce RTX 5060 桌面级 GPU,为全球数百万玩家带来双倍性能提升,同时支持先进的光线追踪、神经渲染技术,以及 AI 驱动的 DLSS 4(深度学习超级采样 4)游戏画质增强技术。
Blackwell 技术将于 9 月登陆 GeForce NOW(云游戏服务),这是 GeForce NOW 迄今为止最重要的一次升级:将提供 RTX 5080 级别的性能,实现极低延迟,并支持 5K 分辨率下 120 帧 / 秒的画质输出。此外,我们还将把 GeForce NOW 的游戏库规模扩大一倍,使其包含超 4500 款游戏,成为全球游戏数量最多的云游戏服务平台。
对于 AI 爱好者而言,端侧 AI 在 RTX 系列 GPU 上的运行效果最佳。我们与 OpenAI 合作,对其开源 GPT 模型进行优化,使其能在数百万台支持 RTX 技术的 Windows 设备上实现高质量、高速且高效的推理。借助 RTX 平台体系,Windows 开发者可开发面向全球最大规模 AI PC 用户群体的 AI 应用。
专业可视化业务营收达 6.01 亿美元,同比增长 32%。增长动力来自高端 RTX 工作站 GPU 的广泛采用,以及设计、仿真、原型制作等 AI 驱动型工作负载的需求提升。核心客户正借助我们的解决方案提升运营效率:动视暴雪采用 RTX 工作站优化创意工作流,而机器人创新企业 Figure AI 则通过 RTX 嵌入式 GPU 为其人形机器人提供算力支持。
汽车业务营收(仅包含车载计算业务营收)达 5.86 亿美元,同比增长 69%,增长主要由自动驾驶解决方案驱动。我们已开始交付 NVIDIA Thor SoC(系统级芯片),该产品是 Orin(前代车载计算芯片)的继任者。Thor 的推出恰逢行业加速向视觉、语言、模型架构、生成式 AI 以及更高阶自动驾驶技术转型的关键节点,它是我们迄今为止研发的最成功的机器人与自动驾驶计算产品。
Thor 将为我们的全栈式自动驾驶软件平台提供算力支持,该平台目前已进入量产阶段 —— 这不仅为英伟达开辟了数十亿美元的新营收机遇,也将提升车辆的安全性与自动驾驶水平。
现在简要介绍利润表其他项目情况:公认会计原则(GAAP)毛利率为 72.4%,非公认会计原则(non-GAAP)毛利率为 72.7%。上述数据包含一笔 1.8 亿美元(或 40 个基点)的收益,该收益来自此前为 H20 产品库存计提的准备金释放。若剔除这一收益,非公认会计原则毛利率仍达 72.3%,依旧超出我们此前的预期。GAAP 运营费用环比增长 8%,非公认会计原则运营费用环比增长 6%,费用增长主要源于计算与基础设施成本上升,以及薪酬福利支出增加。
为支持 Blackwell 平台与 Blackwell Ultra 平台(均为新一代 AI 计算平台)的产能提升,第二季度库存从 110 亿美元环比增至 150 亿美元。尽管我们优先为业务增长及战略举措提供资金支持,但在第二季度,我们仍通过股票回购与现金分红向股东返还了 100 亿美元。董事会近期批准了一项 600 亿美元的股票回购授权,该授权将与第二季度末剩余的 147 亿美元回购授权合并生效。接下来,由我介绍第三季度的业绩展望。
第三季度总营收预计为 540 亿美元,误差幅度 ±2%,这意味着环比增长将超 70 亿美元。需再次说明的是,我们的业绩展望未包含任何向中国客户交付 H20 产品(产品型号)的相关营收。公认会计原则(GAAP)毛利率与非公认会计原则(non-GAAP)毛利率预计分别为 73.3% 与 73.5%,误差幅度均为 ±50 个基点。我们仍预计,年末非公认会计原则毛利率将达到 75% 左右(注:“mid seventies” 指 75% 上下的区间)。
GAAP 运营费用与非公认会计原则运营费用预计分别约为 59 亿美元与 42 亿美元。全年来看,运营费用同比增长率预计将达到35%以上(原文为“high thirties range” ),高于我们此前预期的30%-35%区间(原文为“mid thirties” )。我们正加快业务投资步伐,以把握未来巨大的增长机遇。若剔除非流通股与公开持股权益证券的损益影响,GAAP 其他收支与非公认会计原则其他收支预计均为约 5 亿美元的收益。若剔除任何偶发项目,GAAP 税率与非公认会计原则税率预计均为16.5%,误差幅度 ±1%。
更多财务数据详见首席财务官(CFO)评论及官网发布的其他信息。最后,我想向金融界人士重点介绍即将举行的活动:9 月 8 日,我们将出席在旧金山举办的高盛科技大会;10 月,我们将启动年度投资者日活动;10 月 27 日,GTC 数据中心大会将拉开帷幕,黄仁勋的主题演讲定于 28 日举行。
我们期待在这些活动中与各位会面。我们计划于 11 月 19 日召开电话会议,讨论 2026 财年(相关季度)的业绩。现在会议进入提问环节,主持人,请开启提问征集。
会议主持人萨拉(Sarah):谢谢。第一个问题来自坎托・菲茨杰拉德公司(Cantor Fitzgerald)的 C・J・穆斯(C. J. Muse),您的线路已接通。
坎托・菲茨杰拉德公司分析师 C・J・穆斯(C.J. Muse):您好,下午好。感谢您接受我的提问。据悉,从晶圆投入到机架成品的交付周期为 12 个月,您今天在会议中已确认 Rubin 平台(下一代 AI 计算平台)将按计划在下半年提升产能。显然,这类投资多为多年期项目,还需依赖电力、冷却等配套条件。我希望您能从宏观视角出发,谈谈对2026年增长的展望;若能同时说明网络业务与数据中心业务的增长规划,将对我们极有帮助。谢谢。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):好的,感谢 C・J 的提问。从最核心层面来看,增长驱动力将源于推理型智能体 AI(reasoning agentic AI)的演进与落地。过去,聊天机器人的交互模式是 “单次触发”—— 你给出一个指令,它生成一个答案;而现在的 AI 能够自主开展研究、进行思考并制定方案,甚至会调用工具。这一过程被称为 “深度思考”,通常而言,AI 的 “思考时间” 越长,生成的答案质量越高。
相较于 “单次触发” 模式,推理型智能体 AI 模型所需的算力可能达到 100 倍、1000 倍,若涉及更复杂的研究任务(如大量文献阅读与理解),算力需求甚至可能更高。因此,智能体 AI 的出现使得算力需求大幅增长,其效用也随之显著提升。得益于智能体 AI,AI “幻觉”(指 AI 生成虚假或错误信息的现象)问题的发生率大幅下降;如今,AI 不仅能调用工具,还能执行具体任务,这为企业应用打开了全新空间。
借助智能体 AI 与视觉语言模型,我们在物理 AI、机器人技术及自主系统领域也实现了突破性进展。过去一年,AI 技术取得了巨大进步,而智能体系统与推理系统的出现更是具有革命性意义。为抓住这一机遇,我们研发了 Blackwell NVLink 72 系统 —— 一款机架式计算系统,这项研发工作已持续数年。
去年,我们完成了从 NVLink 8(节点级计算,每个节点即为一台计算机)到 NVLink 72(机架级计算,每个机架即为一台计算机)的技术跃迁。将 NVLink 72 拆解为机架级系统的技术难度极高,但成果也十分显著:凭借 NVLink 72,我们实现了算力数量级的提升,进而大幅优化了能效与令牌生成的成本效益。
关于你提到的长期展望 —— 未来几年(更具体地说,未来五年),我们将依托 Blackwell、Rubin 及后续平台持续扩大规模,最终把握全球 3 万亿至 4 万亿美元的 AI 基础设施市场机遇。过去几年,仅四大云服务提供商(CSPs)的资本支出就实现了翻倍,总额已达约 6000 亿美元。由此可见,我们正处于 AI 基础设施建设的起步阶段,而 AI 技术的进步也切实推动其在各行业的落地应用,助力解决各类实际问题。
会议主持人萨拉(Sarah):下一个问题来自美国银行证券的维韦克・阿里亚(Vivek Arya),您的线路已接通。
美国银行证券分析师维韦克・阿里亚(Vivek Arya):感谢您接受提问。科莱特,我想先明确一下中国市场 20 亿至 50 亿美元营收的相关情况:要实现这一目标需要哪些条件?进入第四季度后,中国业务有望达到怎样的稳定增长节奏?
另外,黄仁勋先生,关于竞争格局:您的多家大型客户已启动或计划启动专用集成电路(ASIC)项目。据悉,您的 ASIC 竞争对手之一博通表示,其 AI 业务明年有望实现55%至60%的增长。您认为是否存在市场重心从英伟达 GPU 转向 ASIC 的可能?从客户反馈来看,他们如何平衡商用芯片(merchant silicon)与 ASIC 的使用比例?谢谢。
英伟达执行副总裁兼首席财务官科莱特・克雷斯(Colette Kress):感谢维韦克的提问**。当前情况仍存在不确定性,我们尚无法确定本季度 H20 的最终营收规模。但可以肯定的是,若市场需求进一步增加、销售许可进一步获批,我们仍可扩大H20的产能并增加交付量。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):英伟达的产品与 ASIC 存在本质区别,我们先从 ASIC 谈起。目前确实有很多 ASIC 项目启动,也涌现出不少相关初创企业,但最终能实现量产的产品寥寥无几,核心原因在于 ASIC 研发难度极高。加速计算与通用计算不同:在通用计算中,你编写软件后只需将其编译到处理器即可运行;而加速计算是一个 “全栈协同设计” 问题。
过去几年,AI 工厂的复杂度大幅提升,因为其需解决的问题规模呈指数级增长 —— 显然,这是全球迄今为止面临的最复杂的计算机科学难题,因此整个技术栈的设计难度极大。AI 模型的迭代速度也异常迅猛:从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型与多模态模型;各类模型层出不穷,有的是 Transformer 架构的衍生版本,有的则是 Transformer 架构的升级版本,数量之多令人却步。
英伟达的优势之一在于,我们的产品覆盖所有云平台,与所有计算机厂商均有合作;从云数据中心到本地部署、从边缘设备到机器人,我们均采用统一的编程模型。因此,全球所有框架支持英伟达产品是顺理成章的事 —— 当你研发新的模型架构时,选择在英伟达平台上发布无疑是最合理的决策。
我们的平台具备三大优势:一是能够适配任意模型架构的演进需求;二是应用场景全覆盖;三是能加速 AI 全流程 —— 从数据处理、模型预训练,到基于强化学习的模型微调,再到最终的推理部署。因此,搭载英伟达平台的数据中心不仅效用最高,使用寿命也远长于其他平台。
此外,我还想补充一点:如今的 AI 系统已成为极其复杂的综合性问题。人们往往只关注芯片本身 —— 比如大家常讨论的 “某款 ASIC 芯片”,但要研发 Blackwell 与 Rubin 这样的完整平台,我们需要构建一整套技术体系:包括能连接高速内存的 CPU(智能体 AI 需要大容量 KB 缓存,因此内存需具备极高能效)、GPU、超级网卡(Super NIC)、横向扩展交换机(即我们的 NVLink)、横向扩展交换机(无论是量子计算场景的交换机,还是 Spectrum X 以太网交换机),以及最新推出的跨域扩展交换机(Spectrum XGS)—— 通过这类交换机,我们可搭建多吉瓦级算力互联的 AI 超级工厂。我们本周已在 Hotchips(半导体行业会议)上发布了 Spectrum XGS 技术。
由此可见,我们所做的每一项工作都具有极高的复杂度,且均需在超大规模层面实现。最后我再强调一点:我们的产品之所以能覆盖所有云平台,是有充分理由的 —— 不仅因为我们的能效是所有计算平台中最高的,更因为在数据中心受电力限制的当下,能效直接决定了营收规模。
正如我此前所说,从诸多层面来看,“采购量越大,增长空间越大”。由于我们的 “每美元性能比”(perf per dollar)极具竞争力,客户也能获得极高的利润率。因此,无论是从增长机遇还是毛利率潜力来看,英伟达架构都是最优选择。
正是基于这些原因,全球所有云厂商、初创企业与计算机厂商均选择英伟达 —— 我们为 AI 工厂提供的是真正全面的全栈式解决方案。
会议主持人萨拉(Sarah):下一个问题来自梅利厄斯公司(Melius)的本・赖茨斯(Ben Reitzes),您的线路已接通。
梅利厄斯公司分析师本・赖茨斯(Ben Reitzes):黄仁勋先生,我想就您提到的 “本十年末全球数据中心基础设施支出将达 3 万亿至 4 万亿美元” 这一预测向您提问。此前您曾提及一个约 10 亿美元规模的数字,我记得那似乎仅针对 2028 年的计算领域支出。结合您以往的表述来看,3 万亿至 4 万亿美元的总支出规模,似乎意味着计算领域的支出可能会超过 20 亿美元。我想确认这一理解是否正确,以及这是否是您对本十年末市场情况的判断。
另外,我还想了解:您认为英伟达在这一市场规模中能占据多大份额?目前,英伟达在整个基础设施计算领域的份额已经非常高,所以想听听您的看法。同时,要实现 3 万亿至 4 万亿美元的支出目标,您是否担心存在某些瓶颈问题,比如电力供应方面的限制?非常感谢。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):好的,谢谢。如你所知,仅全球四大超大规模云厂商(hyperscalers)的资本支出,就在两年内实现了翻倍。随着 AI 革命全面推进、AI 竞赛正式打响,这类资本支出已增至每年 6000 亿美元。从现在到本十年末还有五年时间,而这 6000 亿美元还仅仅是四大超大规模云厂商的支出规模。
除此之外,其他企业也在建设本地部署(on prem)的数据中心,全球各地的云服务提供商也在持续投入建设。目前,美国的计算资源约占全球总量的 60%。长期来看,人工智能的发展规模与增长速度理应与 GDP 相匹配,当然,AI 本身也将推动 GDP 加速增长。因此,英伟达在 AI 基础设施领域的贡献占据着重要地位。
以一座 1 吉瓦(gigawatt)规模的 AI 工厂为例,其建设成本通常在 500 亿至 600 亿美元之间(误差幅度 ±10%),而英伟达在其中的贡献占比约为 35%(误差幅度 ±5%)—— 也就是说,在一座耗资 500 亿至 600 亿美元的 1 吉瓦数据中心中,英伟达相关产品与服务的价值占比约为 35%。
当然,需要说明的是,我们提供的并非仅仅是 GPU。大家都知道,英伟达以研发并发明GPU而闻名,但在过去十年间,我们已成功转型为一家 AI 基础设施企业。仅打造一套 Rubin AI 超级计算机,就需要六种不同类型的芯片;若要将其扩展到 1 吉瓦规模,则需要数十万个 GPU 计算节点以及大量机架设备。
因此,英伟达本质上已是一家 AI 基础设施企业。我们希望能持续为行业发展贡献力量,让 AI 的应用价值更加广泛;同时,提高 “每瓦性能比”(performance per watt)也至关重要 —— 正如你所提及的,未来全球 AI 基础设施建设或 AI 工厂建设,很可能始终面临电力供应的限制。所以,我们需要尽可能挖掘 AI 工厂的能效潜力。
英伟达产品的单位能耗性能,直接决定了 AI 工厂的营收增长 —— 两者存在直接关联。以一座 100 兆瓦(megawatt)的工厂为例,其 100 兆瓦电力对应的性能水平,决定了工厂的营收规模,本质上就是 “工厂每 100 兆瓦电力产出的令牌数量”。此外,我们产品的 “每美元性能比”也极具竞争力,这使得客户能获得极高的毛利率。
不过无论如何,这些(电力、成本等)都是未来行业发展需要应对的限制因素。总体而言,未来五年全球 AI 基础设施支出达到 3 万亿至 4 万亿美元的规模,是一个相当合理的预测。
会议主持人萨拉(Sarah):下一个问题来自摩根士丹利(Morgan Stanley)的乔・摩尔(Joe Moore),您的线路已接通。
摩根士丹利分析师乔・摩尔(Joe Moore):您好,感谢您接受提问。首先恭喜贵公司重新打开中国市场机遇。我想了解中国市场的长期前景:您此前似乎提到,全球约半数 AI 软件相关业务集中在中国。那么,英伟达在中国业务的增长空间有多大?另外,最终推动 Blackwell 架构获得对华出口许可,对英伟达而言有多重要?
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):**据我估算,今年中国市场为我们带来的机遇规模约为 500 亿美元。若我们能凭借具备竞争力的产品充分把握这一机遇,且鉴于全球 AI 市场整体均在增长,预计中国市场规模每年有望实现50%左右的增长。**中国是全球第二大计算市场,同时也是 AI 研究人员的聚集地 —— 全球约50%的AI 研究人员来自中国,绝大多数领先的开源模型也诞生于中国。因此,我认为美国科技企业能否进入这一市场,具有十分重要的意义。
众所周知,开源技术虽诞生于某一个国家,却能服务于全球。中国涌现的开源模型质量极高:例如 DeepSeek已获得全球关注,Q1、Kimi、豆包等模型的表现也十分出色;此外,还有大量全新的多模态模型、优秀的语言模型不断推出。这些开源模型极大地推动了全球企业对 AI 的采用 —— 因为企业希望构建属于自己的定制化专有软件栈,而开源模型对企业而言至关重要;对于同样希望搭建专有系统的 SaaS(软件即服务)企业,开源模型也具有重要价值,同时它还为全球机器人技术的发展提供了强大助力。
由此可见,开源技术意义重大,而美国企业能否参与其中也同样关键。中国市场的规模未来将十分庞大,我们正与美国政府相关部门沟通,强调美国企业进入中国市场的重要性。如你所知,针对未被列入实体清单的企业,H20的对华销售许可已获批,且已有多家企业获得了相关许可。因此,我认为英伟达将 Blackwell 架构引入中国市场的可能性是切实存在的。接下来,我们会继续倡导这一举措的合理性与重要性 —— 毕竟,这有助于美国科技企业在 AI 竞赛中保持领先、赢得竞争,并推动美国技术体系成为全球标准。
会议主持人萨拉(Sarah):下一个问题来自富国银行(Wells Fargo)的艾伦・雷克斯(Aaron Rakers),您的线路已接通。
富国银行分析师艾伦・雷克斯(Aaron Rakers):您好,感谢您接受提问。我想回顾一下本周发布的 Spectrum XGS(英伟达新一代以太网技术)相关公告。目前以太网业务年化营收已突破 10 亿美元,我想了解您认为 Spectrum XGS 的市场机遇体现在哪些方面?我们是否可以将其理解为 “数据中心互联层” 解决方案?另外,在整个以太网产品组合中,您如何看待该技术的市场规模?谢谢。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):目前我们提供三类网络技术,分别对应 “横向扩展”“纵向扩展” 与 “跨域扩展” 三种场景:
第一类是 “纵向扩展” 技术,用于构建规模最大的虚拟 GPU(图形处理器)与虚拟计算节点。NVLink(高速互联技术)在这一领域具有革命性意义 —— 正是凭借 NVLink 72,Blackwell 架构才能实现相较于 Hopper 架构 NVLink 8 的跨越式性能提升。当前,AI 模型正朝着 “深度思考”(long thinking)、智能体推理系统(agentic AI reasoning systems)方向发展,而 NVLink 技术能显著提升内存带宽,这对推理系统而言至关重要,因此 NVLink 72 的价值极为突出。
第二类是 “横向扩展” 技术,我们提供两种解决方案:一是 InfiniBand(高性能互联技术),它无疑是延迟最低、抖动最小、横向扩展能力最强的网络技术,但对网络管理专业能力要求较高。对于超级计算场景及顶尖模型研发机构而言,量子 InfiniBand 是无可争议的首选 —— 若对 AI 工厂进行性能基准测试,采用 InfiniBand 的工厂将展现出最佳性能;二是针对 “数据中心已采用以太网架构” 的客户,我们推出了全新的 Spectrum 以太网技术。该技术并非通用型产品,而是集成了多项专为低延迟、低抖动及拥塞控制设计的新技术,其性能能无限接近 InfiniBand,远超市场上其他以太网解决方案,我们将其命名为 Spectrum X 以太网。
第三类是 “跨域扩展” 技术,即 Spectrum XGS—— 这项千兆级技术可将多个数据中心、多个 AI 工厂连接成一个 “超级工厂”(巨型系统)。显然,网络技术在 AI 工厂中具有核心地位:选择合适的网络技术,能将 AI 工厂的吞吐量效率从 65% 提升至 85% 甚至 90%,这种性能飞跃几乎能让 “网络成本的投入产生‘零成本’般的回报”。
实际上,选择合适的网络技术所带来的回报将远超预期 —— 正如我此前所说,一座 1 吉瓦规模的 AI 工厂建设成本可能高达 500 亿美元,而若能将工厂效率提升十几个百分点,就能产生价值 1020 亿美元的实际收益。因此,网络技术是 AI 工厂的关键组成部分,这也是英伟达在网络领域投入大量资源的原因,同样也是我们五年半前收购 Mellanox(迈络思,网络设备厂商)的核心考量。
正如我们此前提及的,Spectrum X 以太网业务目前已形成相当规模,而该业务推出至今仅一年半时间,堪称 “爆款” 产品。未来,NVLink(纵向扩展)、Spectrum X 与 InfiniBand(横向扩展)、Spectrum XGS(跨域扩展)这三类技术都将拥有广阔前景。
会议主持人萨拉(Sarah):下一个问题来自伯恩斯坦研究公司(Bernstein Research)的史黛西・拉斯金(Stacy Raskin),您的线路已接通。
伯恩斯坦研究公司分析师史黛西・拉斯金(Stacy Raskin):您好,感谢您接受我的提问。我有一个更偏向具体业务的问题想请教科莱特(Colette)。从业绩展望来看,贵公司下季度营收预计环比增长超 70 亿美元,其中绝大部分增长预计来自数据中心业务。我想了解,这 70 亿美元的增长应如何在 Blackwell 平台、Hopper 平台与网络业务三者之间分配?
我的初步判断是,本季度 Blackwell 平台营收可能达到 270 亿美元,较上季度的 230 亿美元有所增长;而在 H20 产品(型号)贡献后,Hopper 平台营收仍能维持在 60 亿至 70 亿美元。请问 Hopper 平台的强劲表现是否会持续?对于如何拆分这 70 亿美元增长在上述三项业务中的占比,您能否提供一些思路?
英伟达执行副总裁兼首席财务官科莱特・克雷斯(Colette Kress):史黛西,感谢你的提问。首先,关于第二季度到第三季度的增长构成,Blackwell 平台仍将占据数据中心业务增长的绝大部分。但需注意的是,这一增长不仅会带动计算业务,也将推动网络业务 —— 因为我们销售的大型系统中,均集成了黄仁勋先生刚才提到的 NVLink(高速互联技术)。
Hopper 平台目前仍在持续出货,包括 H100、H200 等产品(型号),不过这些产品均属于 HCX 系统(英伟达数据中心计算系统)。总体而言,Blackwell 平台仍将是数据中心业务的核心增长驱动力,这一趋势会继续保持。目前我们暂无关于季度末业绩拆分的更多具体细节,但可以明确的是,Blackwell 平台仍将是营收增长的主要贡献者。
会议主持人萨拉(Sarah):下一个问题来自高盛(Goldman Sachs)的吉姆・施耐德(Jim Schneider),您的线路已接通。
英伟达主持人 / 投资者关系部托希亚・哈里(Toshiya Hari):下午好,感谢您接受提问。您此前已清晰阐述了推理型模型(reasoning model)的市场机遇,也较为详细地介绍了 Rubin 平台(下一代 AI 计算平台)的技术参数。不过,能否请您进一步说明对 Rubin 平台后续产品迭代的看法?该平台能为客户带来哪些新增能力?
此外,从性能与功能提升的角度来看,相较于 Blackwell 平台的升级幅度,Rubin 平台的提升幅度会更大、更小,还是基本相当?谢谢。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):好的,谢谢提问。关于 Rubin 平台,我们目前保持着每年一次的产品迭代周期。选择这一周期的核心原因是,我们希望通过持续迭代帮助客户降低成本、最大化营收。
当我们提升 “每瓦性能比”(即单位能耗的令牌生成量)时,本质上是在直接推动客户的营收增长。对于推理型系统而言,Blackwell 平台的 “每瓦性能比” 相较于 Hopper 平台实现了数量级的提升。由于所有数据中心本质上都受电力容量限制,因此,采用 Blackwell 平台的数据中心,无论是相较于我们过往的产品,还是当前市场上的其他解决方案,都能实现营收最大化。
此外,Blackwell 平台的 “每美元性能比”(即单位资本投入的性能)也极具优势,这能帮助客户提升毛利率。只要我们能为每一代产品注入创新理念,就能通过推出新架构,持续提升客户的营收能力、AI 功能水平与毛利率。
因此,我们建议合作伙伴与客户按年度节奏规划数据中心建设。Rubin 平台将包含多项创新,刚才我稍作停顿,是因为从现在到明年发布前,我还有足够时间向大家详细介绍 Rubin 平台的各项突破性进展 —— 目前它已储备了诸多出色的技术理念,我很期待分享,但现在还不能透露更多,后续会在 GTC 大会(英伟达全球开发者大会)上详细说明。
不过,在接下来的一年里,我们将全力推进当前产品的产能提升,包括 Grace Blackwell 平台、GB200(产品型号),以及最新的 Blackwell Ultra 平台、B300(产品型号),并加速数据中心部署。显然,今年已是创纪录的一年,我预计明年也将是创纪录的一年。
一方面,我们将持续提升 AI 性能,朝着人工超级智能(artificial superintelligence)的方向迈进;另一方面,我们也将不断增强超大规模云厂商(hyperscalers)的营收生成能力。
会议主持人萨拉(Sarah):最后一个问题来自瑞银集团(UBS)的蒂莫西・阿库里(Timothy Arcuri),您的线路已接通。
瑞银集团分析师蒂莫西・阿库里(Timothy Arcuri):非常感谢。黄仁勋先生,我想就您此前提及的一个数据向您提问 —— 您说 AI 市场的复合年增长率(CAGR)为 50%。我想了解,您对明年市场情况的可预见性有多高?对于贵公司数据中心业务明年的营收增长而言,50% 的复合年增长率是否是一个合理的目标?我认为贵公司的增长至少应与这一复合年增长率持平。
英伟达总裁兼首席执行官黄仁勋(Jensen Huang):嗯,我认为看待这个问题的最佳方式是,我们已从大型客户那里获得了关于明年的合理预测,这些预测规模相当可观。此外,我们仍在不断赢得新业务,市场上也持续涌现大量初创企业。别忘了,去年专注于 AI 原生业务的初创企业获得的融资额就达 1000 亿美元;而今年尚未结束,这一融资额已升至 1800 亿美元。
若聚焦 “AI 原生” 领域 —— 那些已产生营收的头部 AI 原生初创企业,去年营收总额为 20 亿美元,今年则达到 200 亿美元。明年营收较今年再增长 10 倍,并非不可能。同时,开源模型的发展正吸引大型企业、SaaS(软件即服务)公司、工业企业及机器人企业加入 AI 革命,这将成为另一大增长来源。
无论是 AI 原生企业、企业级 SaaS 厂商、工业 AI 领域,还是初创企业,我们都能看到市场对 AI 的兴趣与需求极为旺盛。想必各位都有所耳闻,当前市场的热门话题是 “所有产品都已售罄”——H100售罄,H200也售罄。大型云服务提供商(CSPs)甚至开始从其他云厂商那里租赁算力,而 AI 原生初创企业更是在争相获取算力,以训练其推理型模型。可见,当前市场需求确实非常强劲。
从长期展望来看,过去两年,仅大型超大规模云厂商(hyperscalers)的资本支出就实现了翻倍,目前每年资本支出规模约为 6000 亿美元。对我们而言,在这 6000 亿美元的年资本支出中占据可观份额,并非不切实际。因此,我认为在未来数年,乃至整个本十年期间,我们都将面临增速迅猛、规模庞大的增长机遇。
最后我总结一下:Blackwell 平台是全球期待已久的下一代 AI 平台,它实现了跨时代的性能飞跃。英伟达的 NVLink 72 机架式计算技术具有革命性意义,其推出恰逢其时 —— 因为推理型 AI 模型正推动训练与推理性能需求实现数量级增长。Blackwell Ultra 平台正全速提升产能,市场需求异常旺盛。
我们的下一代平台 Rubin已进入晶圆制造阶段,该平台包含六款全新芯片,且所有芯片均已在台积电(TSMC)完成流片(taped out)。Rubin 将成为我们的第三代 NVLink 机架式 AI 超级计算机,预计其配套供应链将更为成熟,且具备全面规模化能力。
在本十年末之前,随着全球 AI 工厂建设规模达到 3 万亿至 4 万亿美元,Blackwell 与 Rubin 这两大 AI 工厂平台将持续扩大部署规模。客户正在建设规模越来越大的 AI 工厂:从 “数十兆瓦数据中心搭载数千块 Hopper 系列 GPU”,发展到 “100 兆瓦设施搭载数十万块 Blackwell 系列 GPU”;不久之后,我们还将看到 “数百万块 Rubin 系列 GPU 为多吉瓦、多站点的 AI 超级工厂提供算力支持”。每一代平台的推出,都只会进一步推动需求增长。
从 “单次交互聊天机器人”,到能够自主研究、制定方案并调用工具的 “推理型智能体 AI”,技术演进推动训练与推理算力需求实现了数量级跃升。如今,智能体 AI 已日趋成熟,并为企业市场打开了新空间 —— 企业可围绕业务流程、产品与服务,构建特定领域或企业专属的 AI 智能体。
物理 AI 时代已然来临,这为机器人、工业自动化等领域开辟了全新市场。未来,每个行业、每家工业企业都需要建设两类工厂:一类用于制造实体机器,另一类用于构建其机器人 AI 系统。本季度,英伟达不仅实现了营收破纪录,也在发展历程中达成了一个非凡的里程碑。
未来机遇巨大,一场新的工业革命已然开启,AI 竞赛已然打响。感谢各位今日参与会议,期待在下一次财报电话会议与大家再会。谢谢。
(本文由人工智能辅助完成)