NVIDIA 推出 Vera Rubin POD 40 機架 AI 超級電腦,專為代理工作負載設計
Iris Coleman 2026 年 3 月 16 日 19:48
NVIDIA 宣布推出 Vera Rubin POD,配備 1,152 個 GPU,分佈於 40 個機架,提供 60 exaflops 運算能力,每瓦推理效能比 Blackwell 提升 10 倍。
NVIDIA 剛剛公布了其迄今最雄心勃勃的 AI 基礎設施規格。Vera Rubin POD 將 1,152 個 Rubin GPU 整合在 40 個機架中,提供 60 exaflops 的運算能力和每秒 10 petabytes 的總擴展頻寬。生產單位將於 2026 年下半年出貨。
這些數字令人震驚:1.2 千兆個電晶體、近 20,000 個 NVIDIA 晶片,全部設計成一台單一且協調運作的超級電腦。NVIDIA 聲稱與目前的 Blackwell 架構相比,訓練效能提升了 4 倍,每瓦推理效能提升了 10 倍——代幣成本降低到目前水準的十分之一。
五個專用機架系統
POD 結合了五個不同的機架級系統,每個系統都針對現代 AI 工作負載中的特定瓶頸:
Vera Rubin NVL72 作為核心運算引擎。每個機架整合 72 個 Rubin GPU 和 36 個 Vera CPU,透過 NVLink 6 連接,每個 GPU 提供 3.6 TB/s 的頻寬——根據 NVIDIA 的說法,總頻寬超過整個全球網際網路。該系統針對所有四種 AI 擴展法則:預訓練、後訓練、測試時間擴展和代理擴展。
Groq 3 LPX 機架解決延遲問題。每個機架配備 256 個語言處理單元,採用純 SRAM 架構,這些機架與 NVL72 配對,NVIDIA 聲稱與 Blackwell 相比,可為兆參數模型提供 35 倍的代幣數量和 10 倍的收益機會。
Vera CPU 機架為代理測試提供沙盒環境。單一機架可維持超過 22,500 個並行強化學習環境——這對於在部署前驗證代理 AI 輸出至關重要。
BlueField-4 STX 機架透過 CMX 上下文記憶體平台引入 NVIDIA 所謂的「AI 原生儲存」。透過將 KV 快取卸載到專用的高頻寬儲存,該系統聲稱與傳統方法相比,每秒代幣數提升了 5 倍,電源效率提升了 5 倍。
Spectrum-6 SPX 網路機架透過配備共封裝光學元件的 102.4 Tb/s 交換器將所有元件整合在一起。
代幣經濟學論點
NVIDIA 圍繞特定的市場現實來闡述這一點:代幣消耗量現已超過每年 10 千兆,從人類-AI 互動轉向 AI-AI 互動將大幅加速這一增長。現代代理系統產生大量推理代幣,同時擴大 KV 快取需求——這正是此架構所針對的瓶頸。
NVIDIA 引用的第三方 SemiAnalysis InferenceMax 基準測試顯示,目前的 Blackwell 系統與 H200 相比,每瓦效能已提升了 50 倍,每個代幣成本降低了 35 倍。Vera Rubin 旨在擴大這一領先優勢。
熱能與電源工程
第三代 MGX 機架架構引入智慧電源平滑技術,機架級能量儲存比前幾代增加了 6 倍(每個 GPU 400 焦耳)。這將峰值電流需求降低了多達 25%,並消除了對大型電池組的需求。
所有機架均在 45°C 溫水入口溫度下運行,使許多氣候條件下的資料中心能夠使用環境空氣冷卻。NVIDIA 聲稱這釋放了足夠的電力,可在相同設施電力預算內增加 10% 的機架。
展望未來
除了最初的 POD 配置外,NVIDIA 預展了 Vera Rubin Ultra NVL576,可擴展到 8 個機架中的 576 個 GPU,以及下一代 Kyber 架構,目標是每個機架配備 144 個 GPU 的 NVL1152。路線圖顯示,NVIDIA 將多機架 NVLink 域視為 AI 基礎設施的未來——不僅僅是更大的 GPU,而是根本不同的系統架構。
對於規劃 AI 基礎設施投資的企業來說,訊息很明確:AI 運算的經濟性正從晶片級優化轉向設施級優化。那些正在建設資料中心的企業現在面臨一個選擇:當前世代系統或等待 2026 年底 Vera Rubin 的上市。
圖片來源: Shutterstock- nvidia
- ai infrastructure
- vera rubin
- data centers
- enterprise ai



