NVIDIA 宣布推出 Vera Rubin POD,配備橫跨 40 個機架的 1,152 個 GPU,提供 60 exaflops 運算能力,每瓦推理效能較 Blackwell 提升 10 倍。(ReadNVIDIA 宣布推出 Vera Rubin POD,配備橫跨 40 個機架的 1,152 個 GPU,提供 60 exaflops 運算能力,每瓦推理效能較 Blackwell 提升 10 倍。(Read

NVIDIA 推出 Vera Rubin POD 40 機架 AI 超級電腦,專為代理工作負載打造

2026/03/17 03:48
閱讀時長 6 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

NVIDIA 推出 Vera Rubin POD 40 機架 AI 超級電腦,專為代理工作負載設計

Iris Coleman 2026 年 3 月 16 日 19:48

NVIDIA 宣布推出 Vera Rubin POD,配備 1,152 個 GPU,分佈於 40 個機架,提供 60 exaflops 運算能力,每瓦推理效能比 Blackwell 提升 10 倍。

NVIDIA 推出 Vera Rubin POD 40 機架 AI 超級電腦,專為代理工作負載設計

NVIDIA 剛剛公布了其迄今最雄心勃勃的 AI 基礎設施規格。Vera Rubin POD 將 1,152 個 Rubin GPU 整合在 40 個機架中,提供 60 exaflops 的運算能力和每秒 10 petabytes 的總擴展頻寬。生產單位將於 2026 年下半年出貨。

這些數字令人震驚:1.2 千兆個電晶體、近 20,000 個 NVIDIA 晶片,全部設計成一台單一且協調運作的超級電腦。NVIDIA 聲稱與目前的 Blackwell 架構相比,訓練效能提升了 4 倍,每瓦推理效能提升了 10 倍——代幣成本降低到目前水準的十分之一。

五個專用機架系統

POD 結合了五個不同的機架級系統,每個系統都針對現代 AI 工作負載中的特定瓶頸:

Vera Rubin NVL72 作為核心運算引擎。每個機架整合 72 個 Rubin GPU 和 36 個 Vera CPU,透過 NVLink 6 連接,每個 GPU 提供 3.6 TB/s 的頻寬——根據 NVIDIA 的說法,總頻寬超過整個全球網際網路。該系統針對所有四種 AI 擴展法則:預訓練、後訓練、測試時間擴展和代理擴展。

Groq 3 LPX 機架解決延遲問題。每個機架配備 256 個語言處理單元,採用純 SRAM 架構,這些機架與 NVL72 配對,NVIDIA 聲稱與 Blackwell 相比,可為兆參數模型提供 35 倍的代幣數量和 10 倍的收益機會。

Vera CPU 機架為代理測試提供沙盒環境。單一機架可維持超過 22,500 個並行強化學習環境——這對於在部署前驗證代理 AI 輸出至關重要。

BlueField-4 STX 機架透過 CMX 上下文記憶體平台引入 NVIDIA 所謂的「AI 原生儲存」。透過將 KV 快取卸載到專用的高頻寬儲存,該系統聲稱與傳統方法相比,每秒代幣數提升了 5 倍,電源效率提升了 5 倍。

Spectrum-6 SPX 網路機架透過配備共封裝光學元件的 102.4 Tb/s 交換器將所有元件整合在一起。

代幣經濟學論點

NVIDIA 圍繞特定的市場現實來闡述這一點:代幣消耗量現已超過每年 10 千兆,從人類-AI 互動轉向 AI-AI 互動將大幅加速這一增長。現代代理系統產生大量推理代幣,同時擴大 KV 快取需求——這正是此架構所針對的瓶頸。

NVIDIA 引用的第三方 SemiAnalysis InferenceMax 基準測試顯示,目前的 Blackwell 系統與 H200 相比,每瓦效能已提升了 50 倍,每個代幣成本降低了 35 倍。Vera Rubin 旨在擴大這一領先優勢。

熱能與電源工程

第三代 MGX 機架架構引入智慧電源平滑技術,機架級能量儲存比前幾代增加了 6 倍(每個 GPU 400 焦耳)。這將峰值電流需求降低了多達 25%,並消除了對大型電池組的需求。

所有機架均在 45°C 溫水入口溫度下運行,使許多氣候條件下的資料中心能夠使用環境空氣冷卻。NVIDIA 聲稱這釋放了足夠的電力,可在相同設施電力預算內增加 10% 的機架。

展望未來

除了最初的 POD 配置外,NVIDIA 預展了 Vera Rubin Ultra NVL576,可擴展到 8 個機架中的 576 個 GPU,以及下一代 Kyber 架構,目標是每個機架配備 144 個 GPU 的 NVL1152。路線圖顯示,NVIDIA 將多機架 NVLink 域視為 AI 基礎設施的未來——不僅僅是更大的 GPU,而是根本不同的系統架構。

對於規劃 AI 基礎設施投資的企業來說,訊息很明確:AI 運算的經濟性正從晶片級優化轉向設施級優化。那些正在建設資料中心的企業現在面臨一個選擇:當前世代系統或等待 2026 年底 Vera Rubin 的上市。

圖片來源: Shutterstock
  • nvidia
  • ai infrastructure
  • vera rubin
  • data centers
  • enterprise ai
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。