英偉達Rubin平臺量產:六芯片協同,推理成本驟降10倍
當地時間1月5日,英偉達在CES2026展會上發布了NVIDIA Rubin平臺,正式開啟了下一代人工智能時代包含六款全新芯片,旨在打造一臺性能卓越的人工智能超級計算機。

作為繼Hopper、Blackwell之后的最新一代AI計算平臺,NVIDIA Rubin不僅是一次硬件升級,更是一場由六款全新芯片深度協同構建的系統級革命。其核心目標直指當前AI發展的最大瓶頸:高昂的推理成本與訓練效率。
據英偉達方面數據,Rubin平臺可將每個Token的推理成本降低高達10倍,訓練混合專家(MoE)模型所需的GPU數量減少至四分之一。
Rubin平臺的突破性在于其“全棧協同設計”理念——不再孤立優化單一芯片,而是將Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太網交換機六大組件無縫集成,形成一臺性能驚人的AI超級計算機。
“Rubin的推出恰逢其時,因為人工智能的訓練和推理計算需求正呈爆炸式增長,”英偉達創始人兼首席執行官黃仁勛表示。“憑借我們每年推出新一代人工智能超級計算機的節奏,以及六款全新芯片的深度協同設計,Rubin的推出標志著我們向人工智能的下一個前沿領域邁出了巨大的一步。”
Rubin平臺以美國先驅天文學家Vera Florence Cooper Rubin的名字命名,她的發現改變了人類對宇宙的理解。該平臺包括NVIDIA Vera Rubin NVL72機架式解決方案和NVIDIA HGX Rubin NVL8系統。
英偉達介紹,Rubin平臺旨在滿足復雜AI工作負載的需求,其五項突破性技術包括:
第六代 NVIDIA NVLink:提供當今大規模MoE模型所需的快速、無縫的GPU間通信。每個GPU提供3.6TB/s的帶寬,而Vera Rubin NVL72機架則提供260TB/s的帶寬——比整個互聯網的帶寬還要大。NVIDIA NVLink 6交換機內置網絡內計算能力,可加速集體操作,并新增多項功能以增強可維護性和彈性,從而實現更快、更高效的大規模AI訓練和推理。
NVIDIA Vera CPU:專為智能推理而設計,NVIDIA Vera是面向大規模AI工廠的最高效能CPU。這款NVIDIA CPU采用88 個 NVIDIA定制Olympus內核,完全兼容Armv9.2架構,并具備超高速NVLink-C2C連接。Vera提供卓越的性能、帶寬和業界領先的能效,可支持各種現代數據中心工作負載。
NVIDIA Rubin GPU: Rubin GPU采用第三代Transformer引擎,具備硬件加速自適應壓縮功能,可為AI推理提供50 petaflops的NVFP4計算能力。
第三代NVIDIA機密計算:Vera Rubin NVL72是首個提供NVIDIA機密計算的機架級平臺,可在CPU、GPU和NVLink域中維護數據安全,從而保護全球最大的專有模型、訓練和推理工作負載。
第二代RAS引擎:Rubin平臺涵蓋GPU、CPU和NVLink,具備實時健康檢查、容錯和主動維護功能,可最大限度地提高系統效率。機架采用模塊化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。
目前,NVIDIA Rubin已全面投入生產,基于Rubin的產品將于2026年下半年通過合作伙伴推出。
盡管Rubin尚未正式出貨,但已獲得全球頂級生態支持。AWS、谷歌云、微軟Azure、甲骨文OCI四大云廠商將于2026年下半年率先上線Rubin實例;CoreWeave、Lambda、Nebius等AI原生云服務商同步跟進。微軟更宣布在其下一代“Fairwater AI超級工廠”中大規模部署Vera Rubin NVL72系統,支撐其Copilot+生態。
硬件方面,戴爾、HPE、聯想、超微、思科等服務器廠商將推出基于Rubin的HGX NVL8(8-GPU)和DGX SuperPOD參考架構,覆蓋從企業私有云到國家級AI實驗室的全場景需求。