首页 > 科技快讯 > 史上最强AI基建方案:英伟达发布Vera Rubin平台

史上最强AI基建方案:英伟达发布Vera Rubin平台

(来源:IT之家)

IT之家 3 月 17 日消息,今天(3 月 17 日)在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达为推动智能体 AI(Agentic AI)发展,发布 Vera Rubin AI 平台。

英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin 是一次代际飞跃,标志着其史上最大规模基础设施建设的开端,全面覆盖从大规模预训练到实时智能体推理的 AI 全生命周期。

此举标志着英伟达正式跨入传统 CPU 直销赛道,不仅直接与英特尔、AMD 展开正面交锋,更向全球云计算巨头自研的 Arm 架构处理器发起挑战。

IT之家援引博文介绍,为大幅提升基础运算效率,Vera CPU 单颗芯片配备 88 个核心与 144 个线程。该芯片采用英伟达深度定制的 Arm v9.2-A Olympus 核心,其指令级并行度(IPC)实现了惊人的 1.5 倍代际飞跃。

同时,该架构首发引入了“空间多线程”黑科技,通过物理隔离流水线组件,让多个线程真正在单核上同时运行,彻底告别了传统多线程技术资源排队造成的算力损耗。

在核心算力层面,新一代 NVL72 机架实现了效率的突破性提升。该机架通过 NVLink 6 连接 72 块 Rubin GPU 与 36 块 Vera CPU。

与上一代 Blackwell 平台相比,该系统仅需四分之一的 GPU 即可完成混合专家大模型(MoE)训练,同时每瓦推理吞吐量提升高达 10 倍,单 Token 成本降至十分之一。

此外,专为验证 AI 模型结果设计的 Vera CPU 机架集成了 256 块液冷 CPU,其运行效率达到传统 CPU 的两倍,速度提升 50%。

为应对智能体系统低延迟和长上下文的需求,英伟达推出了 Groq 3 LPX 推理加速机架。该系统包含 256 个 LPU 处理器,与 Vera Rubin 结合后,每兆瓦推理吞吐量飙升至最高 35 倍。

在数据存储方面,全新 BlueField-4 STX 机架构建了 AI 原生存储基础架构。借助全新的 DOCA Memos 框架,该系统能够高效处理大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升最高 5 倍,从而实现更快速的 AI 多轮交互。

相关推荐

英伟达发布Vera Rubin超级芯片,性能提升3.3倍
三星HBM4通过所有认证,最快6月导入英伟达Vera Rubin
英伟达发布新一代Rubin平台,推理成本较Blackwell降10倍,拟下半年发货
英伟达将下一代AI芯片命名为Rubin
英伟达否认市场传闻:下代 Rubin AI GPU 进展顺利
天数智芯公布芯片四代架构路线图,预计明年超越英伟达Rubin架构
黄仁勋新年首场演讲:AI超级芯片平台Rubin全面投产,开源自动驾驶推理模型
英伟达发布全新AI处理器,黄仁勋盛赞DeepSeek
锁定3月16日!黄仁勋放话:英伟达将推出一款令世界惊讶的芯片
GTC2026|倒计时:英伟达芯片供应链生变 三星或部分替代台积电

网址: 史上最强AI基建方案:英伟达发布Vera Rubin平台 https://m.xishuta.cn/newsview147880.html

所属分类:行业热点