正在中国掀起的龙虾热,身在美国的英伟达 CEO 黄仁勋一直在关注。刚刚,黄仁勋站在 2026 年 GTC 大会的舞台上,向全场观众展示了 OpenClaw 在中国的火爆。(来源:英伟达)“人们在深圳排队买龙虾,每个人都在谈论 OpenClaw。”这个在中国深圳发生的真实场景,被他用来证明 OpenClaw 已经成为人类历史上最受欢迎的开源项目,它在几周内就超过了 Linux 三十年的成就。(来源:英伟达)在这场两个小时的主题演讲中,黄仁勋发布了英伟达版龙虾 Nemo Claw 企业级 AI 智能体平台、Rubin 平台、Rubin Ultra、Feynman 架构、Vera CPU 以及多款开放模型,描绘了从芯片到软件再到智能体的 AI 版图。(来源:英伟达)与此同时,2026 年也是英伟达可编程着色器面世 25 周年,CUDA 面世 20 周年,黄仁勋也在演讲中做了回顾,强调正是这些技术积累让今天的 Rubin 平台成为可能。英伟达版龙虾 Nemo Claw:集成 OpenShell 安全层,不会泄露敏感信息在发布英伟达版龙虾之前,黄仁勋用大量篇幅介绍了 OpenClaw。他展示了这个开源项目的惊人增长:你只需要在控制台输入一行命令,OpenClaw 就会自动下载、安装、构建一个智能体,然后你可以告诉它任何需要完成的任务。OpenClaw 本质上是一个智能体操作系统。黄仁勋说,这就像 Windows 让个人计算机成为可能,OpenClaw 让个人智能体成为可能。(来源:英伟达)基于 OpenClaw,英伟达推出了企业级参考设计 Nemo Claw,黄仁勋特意说明 Nemo Claw 也是英伟达和“龙虾之父”Peter Steinberg 合作的结晶。Nemo Claw 集成了 OpenShell 安全层,提供网络护栏和隐私路由器,确保智能体在企业网络中安全运行,不会泄露敏感信息。企业的策略引擎可以连接到 Nemo Claw,实现安全的智能体执行环境。黄仁勋宣布,Black Forest Labs、Cursor、Mistral、Perplexity 等公司已加入 Nemo Tron 联盟,共同推进智能体技术的发展。Rubin 平台:英伟达下一代 AI 加速计算架构的核心Rubin 平台是英伟达下一代 AI 加速计算架构的核心。它由 Vera CPU、Rubin GPU 和 NVLink 72 交换系统组成。(来源:英伟达)黄仁勋在现场展示了 Vera Rubin 系统实物,这个 100% 液冷的庞然大物,所有线缆都已消失,安装时间从过去的两天缩短到两小时。(来源:英伟达)Vera CPU 是英伟达全新设计的数据中心 CPU,专为智能体应用打造。它是世界上唯一使用 LPDDR5 的数据中心 CPU,黄仁勋表示它“拥有无与伦比的单线程性能和每瓦性能”。黄仁勋透露,Vera CPU 单独销售肯定会成为一个数十亿美元的业务。他直言:“我们从没想过会单独卖 CPU,但现在我们在大量销售。”据了解,Vera CPU 配合 BlueField-4 DPU 和 CX-9 SuperNIC,能够为智能体系统提供工具使用能力。智能体需要调用工具、访问文件系统、执行代码,这些都需要 CPU 的参与,而 Vera CPU 正是为这个需求而生。(来源:英伟达)Rubin GPU 通过 NVLink 72 连接,实现 72 个 GPU 之间的 130TB/s 全互联带宽,整个系统作为一个巨大的 GPU 运行。黄仁勋解释说,智能体系统需要处理海量 token,需要频繁访问内存,需要快速使用工具,Rubin 平台正是为此而生。目前,第一台 Vera Rubin 系统已经在 Microsoft Azure 上运行。(来源:英伟达)与 Hopper 相比,Rubin 在高端推理层级上实现了 10 倍的性能提升。黄仁勋用一张吞吐量与 token 速度的关系图向会众解释,未来每个公司的数据中心都将成为 token 工厂,而 Rubin 能让每瓦电力产生最多的 token。在一座 1GW 的数据中心里,Rubin 相比前代产品能带来 5 倍的收入提升。黄仁勋还宣布,全球 100% 的存储行业都正在加入英伟达的存储加速生态,因为未来的存储系统将被 AI 而非人类频繁访问,需要 cuDF 和 cuVS 的加速支持。Rubin Ultra:下一代高性能计算节点Rubin Ultra 是 Rubin 平台的高性能版本,采用全新的 Kyber 机架设计。与 Rubin 水平插入不同的是,Rubin Ultra 采用垂直插入机架,每个 Kyber 机架能够连接 144 个 GPU 形成一个 NVLink 域。黄仁勋现场展示了 Rubin Ultra 的实物,只见他双手拎起也颇显费力,并且这个重达数百公斤的大家伙必须得小心搬动。(来源:英伟达)据了解,Rubin Ultra 芯片即将流片,配合 LPDDR35 内存,并将首次融入英伟达的 NVFP 计算结构,带来数倍的性能加速。黄仁勋解释说,Rubin Ultra 解决了高吞吐量和低延迟之间的矛盾。高吞吐量需要大量浮点运算,低延迟需要巨大带宽。两者本是敌人,但是通过极致协同设计,Rubin Ultra 在最需要高性能的推理层级实现了 35 倍的提升。而如果需要更高速度的 token 生成,还可以加入 Groq 芯片协同工作,将性能推向新的高度。(来源:英伟达) Feynman 架构:未来的下一代计算平台Feynman 是英伟达规划的下一代计算平台,以著名物理学家理查德·费曼命名。它将采用 LPDDR40 内存,联合英伟达的 scale-up 技术和 Groq 团队共同构建。Feynman 将配备全新的 Rosa CPU、BlueField-5 DPU 和 CX-10 SuperNIC,同时支持铜缆和共封装光学器件的 scale-up。(来源:英伟达)黄仁勋强调,Feynman 将满足未来对铜缆、光学器件和 CPO 的巨大容量需求。他说:“很多人问我,Jensen,铜缆还会重要吗?答案是肯定的。(也有人问我)Jensen,你会做光学 scale-up 吗?是的(我会)。”另据悉,Feynman 也将是英伟达首个同时用铜缆和共封装光学器件进行 scale-up 的平台。从 Blackwell 到 Rubin 再到 Feynman,英伟达保持着两年左右一代新架构的节奏。发布多款开放模型,位居各自领域前列黄仁勋还发布了六大系列开放前沿模型,全部位居各自领域的排行榜前列。他强调,开放模型是世界上最大、最多样化的生态系统之一。此次他发布的六个模型分别是:·Nemo Tron 推理模型用于语言和视觉理解,黄仁勋表示 Nemo Tron 3 Ultra 将成为有史以来最好的基础模型。· Cosmos 用于物理世界生成和理解,能够生成海量合成数据训练机器人。 · Alpamayo 是首个会思考和推理的自动驾驶基础模型,能让车辆解释自己的驾驶决策。· GROOT 用于通用机器人,帮助人形机器人学习全身控制和操作。 · BioNemo 用于生物学和分子设计,加速药物发现。 · FourCastNet 用于天气预报和气候预测,根植于物理学。(来源:英伟达)黄仁勋说,这些模型全部开源,开发者可以下载、微调和部署。后续,英伟达还将持续不断地改进这些模型,以实现垂直整合和水平开放。








