文 | 字母 AI
黄仁勋又站上了圣何塞 SAP 中心的舞台。这一次的 GTC keynote,他用了将近两个小时,把英伟达的野心从芯片一路铺到外太空。
表面上看,这是一场产品发布会。

收购 Groq,其产品首次以 "Groq 3 LPX" 的身份嵌入英伟达的推理体系;
自研 CPU Vera 问世,专为 agent 而设计;
发布 DLSS 5,把神经渲染带进游戏画面;
基于爆火的 OpenClaw,推出了英伟达自家的 NemoClaw;
拉来 Mistral、Perplexity、Cursor 等一众 AI 公司,组建 Nemotron 开源模型联盟;
自动驾驶方面,比亚迪、吉利、日产、五十铃接入英伟达的 DRIVE Hyperion 平台,Uber 宣布 2028 年前在 28 个城市部署英伟达全栈自动驾驶车队;
机器人基础模型 GR00T N2 亮相;
甚至还有太空计划,英伟达也要把算力送上轨道。
但黄仁勋真正想传达的信息,比任何一款产品都大。
他给出了一个数字:从 2025 年到 2027 年,AI 芯片的营收将要超过 1 万亿美元。
黄仁勋说,在 AI 时代,token 是新的货币,AI 工厂是生产它们的基础设施。
接下来,黄仁勋先讲训练,再讲推理,然后是智能体、物理 AI、机器人、自动驾驶,层层递进。
每一层都对应更大的基础设施需求,而如今的英伟达,每一层都有产品可以卖。
这场 keynote 看下来不像是一份产品报告,更像一张帝国版图。
Vera Rubin:七颗芯片,一台超级计算机
Vera Rubin 是这场发布会的核心硬件。它由七颗芯片组成:Vera CPU、Rubin GPU、NVLink 6 交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 以太网交换芯片,以及新整合的 Groq 3 LPU。
这七颗芯片全部投产,设计目标是组成一台协同工作的超级计算机,从大规模预训练、后训练、测试时推理扩展,到实时的 agent 推理,这一台机器就可以覆盖 AI 的所有流程。

黄仁勋称,相比上一代 Blackwell 平台,NVL72 训练大型混合专家模型所需的 GPU 数量减少到四分之一,推理吞吐量每瓦提升 10 倍,每 token 成本降至十分之一。
黄仁勋说,agent 的拐点已经到来,Vera Rubin 正在开启历史上最大规模的基础设施建设。
同时黄仁勋还预告了 Vera Rubin 之后的下一代架构 Kyber,采用垂直插入的计算托盘设计以提升密度和降低延迟,将搭载在 2027 年出货的 Vera Rubin Ultra 上。
Groq LPU 登场
训练是英伟达发家之本,但推理才是接下来真正的战场。
因为训练只是一次性的重活,推理才是永不停歇的日常。
每一次你向 AI 提问、每一次你让 AI 帮你写代码,背后都是推理在运转。
黄仁勋提出的方案是把推理拆成两个阶段,分别用不同的芯片来处理。
大语言模型的推理分为两步:prefill(预填充)和 decode(解码)。prefill 阶段处理你输入的提示词,属于计算密集型任务,GPU 擅长这个;decode 阶段则是逐个生成回答的 token,属于带宽密集型任务,需要极高的内存读取速度。
或者我们换一种方式来理解黄仁勋的话,prefill 是 " 读题 ",decode 是 " 写答案 "。读题可以一目十行并行处理,写答案只能一个字一个字往外蹦。
Groq 3 LPU 就是为 decode 阶段而生的。

这家公司由前谷歌 TPU 团队成员创立,英伟达在 2025 年底以 200 亿美元收购了其核心资产。
每颗 Groq 3 LPU 内置了 500MB 的 SRAM(静态随机存取存储器),带宽达到 150TB/s,是 Rubin GPU 中 HBM 带宽(22TB/s)的近 7 倍。
SRAM 可以理解为芯片内部的 " 超高速缓存 ",容量小但速度极快,特别适合 decode 阶段对带宽的极端需求。
英伟达将 256 颗 Groq 3 LPU 装进一个 LPX 机架,与 Vera Rubin NVL72 机架并排部署。Rubin GPU 负责 prefill 的重计算,Groq LPU 负责 decode 的高带宽输出。
黄仁勋说,这种组合在万亿参数模型上能实现每兆瓦推理吞吐量提升 35 倍。
NemoClaw
黄仁勋在台上直接点名了 Claude Code 和 OpenClaw,他说 Claude Code 和 OpenClaw 引起了 agent 的拐点。
黄仁勋夸赞 OpenClaw,称 OpenClaw 向所有人打开了 AI 的下一个前沿,成为历史上增长最快的开源项目。Mac 和 Windows 是个人电脑的操作系统,OpenClaw 是个人 AI 的操作系统。这是整个行业一直在等待的时刻。
英伟达为 OpenClaw 推出了 NemoClaw。
NemoClaw 是通过 NVIDIA Agent Toolkit 优化过后的 OpenClaw,一条命令即可完成安装。它的核心组件是 OpenShell,这是一个提供开源模型和隔离沙箱的环境,为 agent 加上基于策略的安全、网络和隐私护栏。
黄仁勋说,OpenShell 为 OpenClaw 提供了下面缺失的基础设施层,让 agent 在获得执行权限的同时受到安全约束。
NemoClaw 的模型调度采用混合架构:本地运行 Nemotron 等开源模型处理隐私敏感任务,通过隐私路由器(privacy router)调用云端前沿模型处理更复杂的请求。
NemoClaw 可以运行在 GeForce RTX 的电脑和笔记本、RTX PRO 工作站,以及 DGX Station 和 DGX Spark AI 超级计算机上,提供 7 × 24 小时本地计算支持。
Nemotron 联盟
英伟达也要在开源模型层上搞点动作。
Nemotron 联盟是一个全新的合作机制,首批成员包括 Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam 和 Thinking Machines Lab(由前 OpenAI CTO Mira Murati 创立)。
联盟的第一个项目是由 Mistral AI 和英伟达联合训练一个基础模型,其他成员贡献数据、评估框架和领域专业知识。模型将在英伟达 DGX Cloud 上训练,开源发布,并成为即将推出的 Nemotron 4 模型家族的基础。
黄仁勋的潜台词就是,英伟达希望开源模型生态繁荣,因为开源模型的用户最终需要英伟达的硬件来训练和部署。
一个由多家 AI 公司共同参与的开源模型联盟,既能对抗闭源巨头的垄断趋势,也能确保英伟达的基础设施在开源生态中保持核心地位。
自动驾驶
自动驾驶是英伟达近几年的重点之一。
比亚迪、吉利、日产、五十铃宣布采用英伟达 DRIVE Hyperion 平台开发 L4 级自动驾驶车辆。
Uber 宣布与英伟达扩大合作,计划到 2028 年在 28 个城市、四个大陆部署全栈英伟达自动驾驶软件驱动的自动驾驶车队,首批城市是洛杉矶和旧金山湾区,2027 年上半年启动。
Bolt、Grab、Lyft 也在接入 DRIVE Hyperion。
L4 级自动驾驶意味着车辆在特定条件下可以完全自主驾驶,不需要人类随时准备接管。
目前大多数量产车上的 L2 级辅助驾驶仍然要求驾驶员时刻保持注意力,AI 只是 " 辅助 ";L4 则是 AI 真正在开车,人类可以不管。
黄仁勋还借此机会发布了 Alpamayo 1.5,这是一个可交互、可引导的自动驾驶推理模型,能接受视频、自车运动历史、导航指引和自然语言提示作为输入,输出带有推理链的驾驶轨迹。
开发者可以通过文本提示直接调整车辆行为。
AI 工厂的数字孪生
英伟达推出了 DSX Air,一个用于在软件中模拟 AI 工厂的 SaaS 平台。
黄仁勋前几年提出过一个叫 " 数字孪生 "(Digital Twin)的概念,是指在虚拟环境中创建一个与真实物理系统完全对应的数字副本。
工程师可以在这个虚拟副本上进行测试、优化和故障排查,而不需要碰真实的硬件。
就像你搬新家之前,先在 3D 软件里把家具摆一遍,看看哪里不合适。
只不过这里 " 搬 " 的是一整座超大规模 AI 数据中心。

计算、网络、存储、编排、安全,全部按照实际部署方案配置。
CoreWeave 已经在使用 DSX Air 来模拟和验证其 AI 工厂环境。
黄仁勋称,这种方式可以将 " 从部署到产出第一个 token" 的时间从数周甚至数月缩短到几天甚至几小时。
配合 DSX Air 的是 Vera Rubin DSX AI 工厂参考设计和 Omniverse DSX 蓝图。
前者是一份关于如何设计、建造和运营 AI 工厂基础设施的完整指南,后者则提供物理精确的数字孪生能力,用于大规模 AI 工厂的设计和仿真。
Cadence、达索系统、西门子、施耐德电气等工业软件巨头都在接入这套体系。
黄仁勋还发布了 DSX Max-Q 动态功率分配技术,称可在固定电力的数据中心内多部署 30% 的 AI 基础设施。
DSX Flex 软件则让 AI 工厂成为电网灵活资产,黄仁勋说可以释放 100 吉瓦的闲置电网容量。
存储也要重新发明
BlueField-4 STX 是英伟达为 agent 设计的新存储架构。
传统数据中心的存储系统提供大容量通用存储,但缺乏 agent 所需的实时响应能力。
agent 在实际工作中,需要跨多个步骤、工具和会话保持上下文记忆,传统存储的延迟会拖慢推理速度、降低 GPU 利用率。
STX 架构的首个落地产品是 CMX 上下文记忆存储平台,它在 GPU 内存之外扩展了一个高性能上下文层,用于可扩展的推理和智能体系统。
黄仁勋称,与传统存储相比,CMX 可提供 5 倍的每秒 token 吞吐量、4 倍的能效提升和 2 倍的数据摄取速度。
CoreWeave、Crusoe、Lambda、Mistral AI、Nebius、Oracle 等计划采用 STX 用于上下文记忆存储。Dell、HPE、IBM、NetApp、VAST Data 等存储厂商正在基于 STX 参考设计构建下一代 AI 存储基础设施。
DLSS 5:游戏画面的 "GPT 时刻 "
游戏才是英伟达的老本行。
黄仁勋在演讲中提到,DLSS 5 是自 2018 年推出实时光线追踪以来最重大的图形突破。
DLSS 全称 Deep Learning Super Sampling(深度学习超级采样),是英伟达用 AI 提升游戏画面质量和性能的技术。
此前的版本主要通过 AI 放大分辨率和生成中间帧来提升帧率。DLSS 5 引入了一个实时神经渲染模型,能够为游戏画面注入照片级真实的光照和材质效果。

它接收游戏每一帧的颜色和运动向量作为输入,用 AI 模型理解场景中的角色、头发、布料、半透明皮肤等复杂元素,以及正面光、逆光、阴天等环境光照条件,然后生成视觉上精确的增强图像。
Bethesda 的《星空》《上古卷轴》、CAPCOM 的《生化危机》、育碧的《刺客信条:影)、腾讯、网易等厂商已确认支持。
DLSS 5 将于今年秋季推出。
太空计算:最后的边疆
最后,英伟达也宣布进军太空计算。
黄仁勋说,太空计算是最后的边疆,现如今已经到来。
" 随着英伟达部署卫星星座、向更深的太空探索,智能必须存在于数据产生的任何地方。太空与地面系统之间的 AI 处理实现了实时感知、决策和自主运行,将轨道数据中心变成发现的工具,将航天器变成自主导航的系统。与我们的合作伙伴一起,我们正在将英伟达延伸到地球之外——大胆地将智能带到它从未到达的地方。"
于是黄仁勋拿出了 Space-1 Vera Rubin Module,这是一个面向轨道数据中心的计算模块。
采用紧密集成的 CPU-GPU 架构和高带宽互联,专为尺寸、重量和功耗(SWaP)受限的太空环境设计。
黄仁勋称,相比 H100,Space-1 在太空推理场景下提供 25 倍的 AI 算力提升,能够在轨道上直接运行大语言模型和高级基础模型,处理来自太空仪器的海量实时数据流。
配合 Space-1 的还有两款已经可用的平台:IGX Thor 和 Jetson Orin。
IGX Thor 提供工业级耐久性和功能安全,适合任务关键型边缘环境。
Jetson Orin 则是超紧凑、高能效的 AI 推理模块,已经部署在卫星上用于视觉、导航和传感器数据的实时处理。
在地面端,RTX PRO 6000 Blackwell Server Edition GPU 用于地理空间情报的大规模处理,英伟达称其分析海量卫星图像档案的速度是传统 CPU 系统的 100 倍。