在2026年CES展会上,Nvidia正式发布新一代Vera Rubin AI计算平台,以六芯片协同设计重构AI基础设施架构,实现性能与能效的双重突破。这款以天文学家薇拉·鲁宾命名的平台,不仅将推理性能提升至前代Blackwell平台的5倍,更将每token处理成本降低90%,为代理式AI时代的规模化应用奠定基础。
Vera Rubin平台的核心革新在于系统级协同设计。不同于传统“组装式”架构,该平台整合了Rubin GPU、Vera CPU、第六代NVLink交换机等六款自研芯片,形成从晶体管到机柜的全栈优化体系。其中,全新Transformer引擎凭借硬件加速的自适应压缩技术,实现50 PFLOPS的NVFP4推理算力,同时确保与Blackwell架构完全兼容,保障代码无缝迁移。
通信带宽的跨越式提升成为性能突破的关键支撑。第六代NVLink为单GPU提供3.6 TB/s双向带宽,机架级全互联拓扑带宽达260 TB/s,结合SHARP协议可将网络拥塞率降低50%,彻底解决大规模模型训练中的数据传输瓶颈。在实际应用中,训练同等规模MoE模型所需GPU数量仅为前代的四分之一,大幅降低部署成本。
安全与可靠性的升级同样亮眼。平台搭载第三代机密计算技术,在36颗Vera CPU、72颗Rubin GPU及NVLink互连结构间构建统一信任执行环境,实现全链路数据安全防护。第二代RAS引擎支持主动维护与实时健康检查,配合模块化无电缆设计,使系统组装维护速度提升18倍,保障超大规模部署的稳定运行。
生态响应印证了平台的产业影响力。微软、AWS、OpenAI等全球科技巨头已明确采用计划,其中微软Fairwater AI超级工厂将部署数十万个Vera Rubin超级芯片。OpenAI CEO山姆·奥特曼评价称,该平台将加速智能扩展进程,让先进AI能力惠及更广泛群体。
黄仁勋在发布会上强调,AI计算需求正呈指数级激增,Vera Rubin的推出标志着行业从“芯片竞争”进入“系统架构竞争”新时代。通过将数据中心作为整体计算单元的创新思路,该平台不仅解决了传统架构的效能损耗问题,更推动AI算力从“组件供应”向“服务化交付”转型。未来,随着生态伙伴的持续落地,Vera Rubin有望重塑全球AI产业的成本结构与分工格局,为具身智能、数字孪生等前沿应用提供核心动力。