文 | 霞光 AI 实验室
全球瞩目的英伟达 GTC 2026 大会在昨晚开启,黄仁勋的演讲一如既往地成为核心焦点。
在此次两个多小时的演讲中,黄仁勋表达了一个重要的判断:AI 已从训练时代全面进入推理 + 智能体 + 物理 AI 的工业化时代,Token 成为核心商品,光互联与硅光子是算力突破关键。黄仁勋将英伟达定位为 "AI 工厂 " 构建者,称 " 到 2027 年将看到至少 1 万亿美元的营收。
为此,此次大会上,黄仁勋发布了:Vera Rubin AI 工厂平台、Groq 3 LPU 芯片、CPO 交换机与太空数据中心模块,以及推出 NemoClaw 智能体基础设施,核心在阐述英伟达从一家 " 芯片公司 " 向 "AI 基础设施和工厂公司 " 蜕变。
以下,我们根据演讲,提炼了核心内容:

这其中,Token 已成为 AI 时代核心商品,推理与执行场景将带来 Token 消耗的指数级增长,英伟达的核心目标是成为 "Token 之王 ",追求全球最低的每 Token 成本,这一逻辑构成英伟达 "Token 工厂经济学 " 的核心内核——数据中心不再是文件仓库,而是生产 Token 的 " 工厂 ",每瓦 Token 吞吐量直接决定企业生产成本。
甚至,未来职场也会因此发生变革:未来工程师将标配 " 年薪 +Token 预算 " 模式,Token 将成为硅谷及全球科技行业招聘的核心筹码,标志着 Token 已成为 AI 时代的核心生产资料。
黄仁勋强调,英伟达的 Token 成本在世界范围内是 " 不可触碰 " 的。即便竞争对手的架构是免费的,它也不够便宜。因为建立一个 1GW 的工厂,即便里面什么都不放,15 年的摊销成本也高达 400 亿美元。你必须确保在这个工厂里运行最强的计算机系统,才能获得最低的 Token 生产成本。
数据中心的角色也在发生变化:过去它是存储和计算中心,而未来将成为生产 Token 的 AI 工厂。随着 AI 的普及,无论是云厂商、AI 公司还是传统企业,都将开始从 "Token 工厂效率 " 的角度来衡量自己的计算基础设施,因为在 AI 时代,Token 将成为新的数字商品,而计算能力则直接决定企业的价值创造能力。

Vera Rubin 超级 AI 平台的亮相,掀起了演讲的另一个小高潮。
据介绍,这是一个全新的计算平台,由七款芯片组成, 涵盖计算、网络和存储三大功能,是目前最先进的 POD 规模 AI 平台。以 Vera Rubin 为代表的 " 芯片全家桶 ",构成了这一代 Vera Rubin 机架的系统级基础设施,其中包括:Vera CPU、Rubin GPU、NVLink 6 Switch(高速互联)、ConnectX-9 SuperNIC(超级网卡)、BlueField-4 DPU(数据处理单元)、Spectrum-6 以太网交换机。

Groq 3 LPU 芯片是英伟达专为极致低延迟推理设计的全新处理器。它专为 AI 推理场景优化,解决实时交互场景的低延迟需求,是英伟达对抗 AMD、巩固推理市场优势的关键产品,源于 2025 年底英伟达斥资 200 亿美元收购的 AI 芯片初创公司 Groq 的技术积淀。
Groq 3 LPU 搭载 230MB 片上 SRAM,数据带宽达 80TB/s,首 Token 延迟<0.1 秒,推理性能为 H100 的 10 倍;采用 " 确定性执行 " 模式,给定相同输入,总会在完全相同的时间点产生输出,不受系统负载、温度波动等因素影响,适配智能客服、自动驾驶决策等实时交互场景;未来将以 3D 堆叠方式直接集成在 Feynman 芯片 GPU 核心之上,进一步降低推理延迟。
该芯片预计于 2026 年三季度开始正式出货。
在本次演讲中,NVIDIA 列出了 Feynman GPU 与下一代 HBM、Vera CPU 以及构成 AI 数据中心基础的其他几个连接芯片。
该芯片架构面向 " 物理 AI/ 世界模型 ",支撑具身智能、通用人工智能、万亿参数模型训练与超大规模推理场景,原定 2028 年发布,此次在 GTC 2026 上提前曝光技术原型,是英伟达突破硅基计算物理极限的核心布局。
Feynman 芯片采用台积电 A16(1.6nm)制程,是全球首款迈入 1nm 时代的量产级芯片架构,晶体管密度较前代提升 1.1 倍;搭载 GAA 全环绕栅极晶体管与超级电轨背面供电(SPR)技术,将供电线路迁移至晶圆背面,同性能场景下功耗降低 15%-20%,同电压下运行速度提升 8%-10%;采用硅光子光互连技术,带宽密度提升 10 倍,传输能耗下降 90%,打破超大规模 AI 集群的 " 互连墙 ";采用 3D 堆叠加混合键合技术,将 LPU 直接堆叠在 GPU 核心上,极致缩短数据传输距离;推理性能为 Blackwell 的 5 倍,单 GPU 算力可达 50 PFLOPS,能效比达到前代产品的 3.2 倍,在 ResNet-50 图像分类任务中,每瓦性能较 Hopper 架构提升 5.8 倍;配套推出 NVLink-CXL 6.0 互联技术,跨节点数据传输带宽突破 1.2TB/s。
它的发布,将使万亿参数模型的训练成本较 2023 年下降 87%,首次降至中型企业可承受范围;推理延迟降低 40%-85%,Token 成本降至 Blackwell 的 1/10,低功耗设计可支持边缘设备部署,实现 " 端侧智能 ";预计将推动 AI 算力服务订阅模式普及,未来 5 年 90% 的企业将不再购买 AI 芯片,而是订阅 AI 算力服务。
传统电互联已触及性能与功耗天花板,共封装光学(CPO)是突破算力 / 功耗墙的唯一路径,2026 年定为硅光子技术商用元年,实现 " 光进铜退 " 的产业变革。
为此,英伟达推出了全球首个 CPO(Co-Packaged Optics)光电共封装 的 NVIDIA Spectrum-X Ethernet Switch,将光模块直接集成到芯片封装中,实现电子信号与光信号的直接转换,从而显著提升数据中心网络带宽与能效。据介绍,其能耗仅为传统铜缆的 5%,大幅降低 AI 集群的能耗成本与散热压力。
这项技术由 NVIDIA 与台积电共同开发,目前已经进入量产阶段。
大会还发布 "Space 1 Vera Rubin Module" 轨道数据中心,标志着其算力布局从地面延伸至轨道,进一步扩大 AI 基础设施的覆盖范围。
Space 1 Vera Rubin Module 轨道数据中心的 AI 算力为 H100 的 25 倍。Space-1 Vera Rubin 模组可提供大规模数据中心级 AI 能力,使大语言模型和先进基础模型能够直接在太空运行。未来,可以实现太空场景下的 AI 数据处理、实时分析等任务,这将拓展 AI 在航天、太空探索等领域的应用场景。

OpenClaw 已经火了两个月,展现大家对智能体的热情。此次,英伟达推出首款全新工具 NemoClaw,重点优化了开源 AI 智能体 OpenClaw 的安全性与输出质量。
为了确保安全,NemoClaw 由多个关键模块构成,首要组件为 OpenShell —— 一款为 OpenClaw 添加隐私保护与网络安全防护机制的工具。它通过在沙箱环境中运行 OpenClaw,阻止智能体访问与任务无关的文件,同时限制其网络访问权限,为智能体打造安全可控的运行边界。
NemoClaw 对标 Linux,定位为 AI 智能体的 " 操作系统 ",填补 OpenClaw 被收购后企业级开源智能体平台的缺口,是英伟达打破自身 CUDA 硬件绑定、拓展全行业 AI 软件生态的核心布局,分为企业级与开发者双版本,提供一站式智能体开发工具。
黄仁勋判断," 未来的编程语言就是人类语言 ",每一家 SaaS 公司都将转型为 "AaaS(智能体即服务)",NemoClaw 将成为这一转型的核心支撑平台。
针对物理 AI,黄仁勋判断,下一波 AI 浪潮的核心是 "AI 理解物理规律、与现实世界交互 ",他把 2026 年定为 " 人形机器人商业化元年 ",与全球人形机器人产业的产业化拐点高度契合,英伟达将重点布局具身智能与物理 AI 落地。
为此,2024 年英伟达就发布了 Project GR00T 人形机器人基础模型。今年,英伟达进一步升级了 Project GR00T 通用机器人基础模型,以支撑人形机器人的自主决策与动作执行。
2026 年全球人形机器人量产规模将突破 3 万台,其中工业制造、特种作业等 ToB 端场景占比超 60%,单台工业人形机器人可替代 2-3 名人工,年节省成本超 15 万元,终端售价逐步下降,市场接受度大幅提升,2030 年全球量产规模有望达到 100 万台,市场规模突破万亿,年复合增长率超 80%。
此外,还升级 Omniverse 数字孪生训练平台,为机器人、自动驾驶、工业自动化等物理 AI 场景提供虚拟训练环境,实现 " 虚拟仿真→真实落地 " 的闭环,降低物理 AI 的研发与落地成本,适配比亚迪、极氪等车企智慧工厂的人形机器人部署需求,支撑物流转运、零部件装配等作业落地。