Nvidia 周一在 GTC 2026 上終於公布 7 晶片組成的運算平台 Vera Rubin 正式投產,且支援軟體名單星光熠熠,Meta 、 OpenAI 、 Anthropic 和 Mistral AI 及所有主要公有雲平台業者都到齊了。
這告訴 AI 業界和投資人:Nvidia 仍然氣勢如虹。 Vera Rubin 平台號稱每瓦電力的推論傳輸量是最近才剛開始出貨的 Blackwell 系統的 10 倍,而每 token 成本則只要 1/10 。 AWS 、 Google Cloud 、 Microsoft Azure 和 Oracle Cloud Infrastructure 都會提供平台,且有 80 多家製造合作夥伴正在打造系統。

專為支援 AI 代理人而設計的 7 晶片平台
Vera Rubin 整合了 Nvidia Vera CPU 、 Rubin GPU 、 NVLink 6 Switch 、 ConnectX-9 SuperNIC 、 BlueField-4 DPU 、 Spectrum-6 乙太網路交換器,以及最新整合的 Groq 3 LPU,後者是推論專用加速器。 Nvidia 將這些組合成 5 個相互構連的機櫃系統,共同運作成為一座超級電腦。 Nvidia CEO 黃仁勳在開幕致詞上說,七晶片、五機櫃、一座超級電腦,Vera Rubin「是技術大躍進,是史上最棒的基礎架構平台。」
旗艦的 NVL72 機櫃包含 72 顆 Rubin GPU 及 36 顆 Vera CPU,由 NVLink 6 連結。 Nvidia 說,這個機櫃可訓練一座大型混合專家模型,而使用的 GPU 數量僅為 Blackwell 的 1/4 。如果能在生產環境上實現,將能根本改變打造頂尖 AI 系統的現狀。
Vera CPU 機櫃包含 256 顆液冷式處理器,可支持超過 22,500 同時執行的 CPU 環境,後者為 AI 代理人執行程式、驗證並且迭代演進的沙箱。 Nvidia 稱 Vera Rubin 是首個為代理式 AI 及強化式學習專門打造的處理器,它包含 88 顆客製 Olympus 核心和 LPDDR5X 記憶體,提供頻寬達 1.2 Tbps,但用電量只需傳統伺服器 CPU 的一半。
Groq 3 LPX 機櫃包含 256 顆推論處理器、晶片上 SRAM 高達 128 gigabytes,鎖定低延遲性、上兆參數的模型。 BlueField-4 STX 儲存機櫃提供高速儲存,適合代理人系統在長期、多步驟任務推理過程中生成的大量資料快取。而 Spectrum-6 SPX 乙太網路機櫃則以光纖和所有前述系統連結,而用電效率是傳統光纖收發器的 5 倍。
結合 Vera Rubin 為基礎的硬體平台,以及 Nemotron 3 模型、 NeMo Crawler 代理人平台,Nvidia 正在宣告,AI 僅回應提示不行動的聊天機器人時代即將退位,將迎接能自主思考數小時甚至數天、撰寫並執行軟體、呼叫外部工具並持續演進的系統主導「代理式 AI」時代的到來。
來源:VentureBeat
