黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

北京时间1月6日凌晨,英伟达CEO黄仁勋CES 2026的开幕演讲中,系统阐述了他对人工智能产业演进的最新判断,并正式发布了全新一代Vera Rubin计算架构。这一架构涵盖CPU、GPU、互连、网络、存储与系统级设计,被英伟达定义为面向“下一阶段AI前沿”的基础设施平台。

在这场演讲中,黄仁勋并未将重点放在某一具体应用或模型能力上,而是反复强调一个核心命题:人工智能正在引发一次覆盖整个计算产业的结构性重置,而英伟达的角色,是为这场重置提供底层工具与系统能力。

AI走向“平台化”,英伟达要做底层“卖铲人”

黄仁勋对AI市场的判断,延续了他一贯的“平台论”视角。他表示,计算产业每隔10到15年就会发生一次底层重置:从大型机到PC,从互联网到云计算,再到移动计算。每一次重置,应用形态都会随之改变,产业价值链也会重新分配。

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

但AI的特殊之处在于,它并不是单一平台的替代,而是两次平台迁移同时发生。

第一层迁移,是应用本身的重构。应用不再是被编写的,而是被训练;不再是预设流程,而是在运行时根据上下文实时生成每一个token、每一个像素。AI不再是应用,而是应用赖以生存的底座。

第二层迁移,是整个计算栈都在被重写。软件如何开发、如何运行、运行在什么硬件之上,CPU不再是中心,GPU成为默认;推理不再是一次性输出,而是一个持续“思考”的过程。

在这种背景下,黄仁勋反复强调一个数字:全球传统计算体系规模约为10万亿美元,而这部分基础设施,正在被系统性地现代化AI计算。AI投资的资金,并非凭空出现,而是来自企业研发预算、风险投资和整个工业体系的迁移。

英伟达在这个市场中的定位,并非某一家AI应用公司的竞争者,而是为所有人提供新平台的基础设施公司。在这场淘金热中,它选择继续扮演“卖铲人”。

物理AI正迎来“ChatGPT时刻”

如果说生成式AI解决的是语言与内容问题,那么黄仁勋在CES 2026上反复提到的“Physical AI(物理AI,则标志着英伟达试图将智能推入现实世界。

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

他将AI能力的演进分为几个阶段:预训练、强化学习、测试时推理,再到具备规划与执行能力的代理系统(Agentic Systems)。当AI开始“思考”,并且可以调用工具、分解任务时,问题的边界已经不再局限于数字空间。

真正的挑战在于,物理世界的数据是有限的、昂贵的,且不可穷举。这也是英伟达长期投入仿真与合成数据的原因。

在演讲中,黄仁勋重点介绍了NVIDIA Cosmos世界基础模型,用于理解物理规律、生成物理一致的场景数据,并在闭环中训练AI行动能力。这不是一个简单的视频生成模型,而是一个理解物理、重力、摩擦力和惯性的世界模型。它不仅能生成视频,还能模拟物理反馈,解决AI在现实世界中因缺乏“常识”而产生的幻觉。这套体系并不只是服务于研究,而是直接指向自动驾驶与机器人。

在应用层面,他发布了全球首个具备推理能力的自动驾驶AI——Alpamayo与传统的规则驱动或简单的端到端模型不同,Alpamayo在驾驶过程中会实时“思考”并口述其决策逻辑。黄仁勋宣布,搭载该系统的梅赛德斯-奔驰CLA将于2026年第一季度正式上路。

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

这种从“数字大脑”向“物理实体”的跨越,不仅体现在自动驾驶上,还延伸到了名为“格鲁”(音译)的人形机器人系统。黄仁勋透露,NVIDIA正在通过合成数据生成来解决物理世界数据匮乏的难题。通过Cosmos模型,NVIDIA可以将计算转化为数据,训练机器人应对各种长尾场景。

这种“三台计算机”架构——一台用于训练,一台用于仿真模拟(Omniverse),一台用于边缘推理——构成了NVIDIA在工业与机器人领域的坚实护城河。

Rubin架构:卖铲人的“新铲子”

如果说前半场是战略判断,那么Rubin架构的发布,才是这场演讲真正的技术核心。

这一架构的设计起点非常现实:摩尔定律放缓,而模型规模以每年10倍的速度增长,推理阶段的token生成量以每年5倍的速度增加,单纯依靠晶体管数量已经无法支撑性能需求。

因此,英伟达选择在这一代“推倒重来”。

黄仁勋表示,Vera Rubin并不是一颗芯片,而是一个由6颗芯片组成、通过极端协同设计形成的系统级架构。它被定位为专为智能体AI(Agentic AI)和物理AI(Physical AI)设计的算力底座。

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

Vera Rubin系统由定制的Vera CPU与Rubin GPU组成,两者从设计之初就被定义为双向一致、低延迟的数据共享结构。Vera CPU拥有88个物理核心,通过空间多线程(Spatial Multi-Threading)技术实现176线程满速运行,强调在功耗受限环境下的性能密度。同时为了解决大规模集群的通信瓶颈,Rubin平台搭载了NVLink 6,提供了高达3.6T/s的双向带宽。

Rubin GPU在浮点性能上超过Blackwell,而晶体管数量仅为后者的1.6倍。这背后依赖的是全新的张量核心与Transformer Engine设计,而非单纯堆叠规模。

黄仁勋携Rubin架构亮相CES,英伟达铁了心要做“AI卖铲人”

在系统层面,Rubin真正的突破来自阵列化

一个Vera Rubin计算托盘中集成2颗Vera CPU、4颗Rubin GPU,配合BlueField-4 DPU与ConnectX-9网络。通过第六代NVLink交换系统,18个计算节点可以被连接为一个整体,最多实现72颗Rubin GPU协同运行,像一颗“巨型GPU”一样工作。

在完整的MVL72机架中,英伟达集成了6类全新芯片、18个计算托盘、9个NVLink交换托盘,总计约220万亿晶体管,整机重量接近两吨。

在数据中心层面,Rubin引入了多个关键改动。其一是上下行带宽,每颗GPU可获得1.6TB/s的Scale-out带宽;其二是上下文内存体系,通过BlueField-4将KV Cache与上下文管理放入机架内部,为每颗GPU额外提供最高16TB的可扩展内存空间。

网络部分,Spectrum-X以太网交换机首次引入Silicon Photonics技术,提供512个200Gb端口,能够将成千上万机架连接为“AI工厂”。

在能效层面,该阵列在单机架内的计算密度提升了约3倍。在处理类似Cosmos这种涉及物理规律模拟的复杂模型时,六卡阵列能够实现跨芯片的内存池共享,极大地减少了模型切分带来的性能损耗。黄仁勋特别提到,这套阵列采用了全集成的液冷方案,能在消耗更低能耗的同时Rubin的功耗约为上一代Grace Blackwell的两倍,这一设计有望为全球数据中心节省约6%的能耗。

同时,Rubin在系统级实现了全链路加密,覆盖PCIe、NVLink及GPU互联,并正式支持加密计算,为模型托管与跨组织部署提供安全基础。

这个六卡阵列也是英伟达向业界发出的一个信号:未来的算力单元不再是以计算,而是以阵列机架为最小单位。通过这种设计,英伟达进一步锁定了数据中心和主权AI实验室的采购偏好——你买的不只是一张显卡,而是一套不可分割的、高度协同的算力体(英伟达也能因此创造更多收入)。

算力竞争格局再升级

从更宏观的角度看,黄仁勋在CES 2026的演讲,并不是为了宣布某一项技术领先,而是试图给整个行业一个坐标系。

在这个坐标系中,AI不再是少数公司的专属能力,而是一种会“渗透到每一个国家、每一个行业、每一家企业”的基础设施;应用不再是固定形态,而是由Agent驱动的交互系统;竞争不再只是模型参数之争,而是算力、数据、模拟、系统工程能力的综合博弈。

英伟达选择的位置,依然是那个看似朴素、却至关重要的“卖铲人”。它既是平台的建设者,也是规则的塑造者;既推动开放,又牢牢掌握最核心的工程能力。

随着AI开始从数字空间走向物理世界,这场算力竞赛的格局正在被重新划分。对于全球各方的参与者而言,Rubin架构的出现不仅是一次技术挑战,更是一条更加清晰的竞争分界线:在全栈集成的“暴力美学”面前,传统的、零散的硬件逻辑正面临降维打击。为全球AI产业提出新的挑战与新的思路。

原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/14201

(0)
上一篇 2天前
下一篇 1天前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注