Nvidia Rubin超級晶片全產線 速度提升5倍!




Nvidia加快AI發展步伐:Rubin超級晶片全面量產,速度提升5倍

Nvidia於2026年CES展會上宣布,備受期待的Rubin數據中心產品已全面進入量產階段,預計今年內推出。Nvidia行政總裁黃仁勳在拉斯維加斯的主題演講中表示,公司將繼續領跑人工智能基礎設施的激烈競賽。

Rubin平台的六款晶片均已從製造合作夥伴返廠,並通過初步里程碑測試,預計將於2026年下半年開始部署給客戶。Nvidia選擇在CES展示這些產品,顯示其希望在來自AMD及雲端服務商自研晶片的競爭壓力下,繼續維持業界對Nvidia硬件的依賴。

更快訓練、更低成本推理

Rubin加速器專為應對需要多階段推理的智能代理AI模型的龐大計算需求而設計。Nvidia表示,Rubin GPU相較目前的Blackwell架構:

– 在AI模型訓練方面,性能提升3.5倍。
– 在運行(推理)AI軟件方面,速度提升5倍。

該平台配備了全新Vera CPU,擁有88個定制核心,性能是前代產品的兩倍。Nvidia強調,基於Rubin的系統將更具成本效益,能以大幅減少的元件數量和每個token成本降低至10分之一的情況下,達到與Blackwell相同的結果。

擴展AI工廠規模

Nvidia將Rubin平台定位為一個模組化的「超級電腦盒子」。硬件中包括BlueField-4 DPU,作為AI原生的存儲處理器。這款晶片負責管理「上下文記憶」,使AI代理能夠保留長期信息而不會阻塞主處理器,提升功率效率達5倍。

Rubin平台的早期採用者包括微軟,計劃將其納入Fairwater AI超級工廠;亞馬遜AWS、谷歌雲和甲骨文雲基礎設施亦是重要合作夥伴。

機械人「ChatGPT時刻」及自動駕駛「拐點」

黃仁勳形容,現時是實體AI的「ChatGPT時刻」,同時也是自動駕駛車輛的「拐點」。為推動AI在經濟各領域的廣泛應用,Nvidia推出:

– Alpamayo:一系列開放式AI模型,幫助自動駕駛車輛處理罕見的「長尾」駕駛場景,計劃最快於2027年與合作夥伴測試L4級別的機器人計程車服務。
– Jetson T4000:基於Blackwell架構的新型機械人模組,為人形機械人及工業自動化帶來4倍的能源效率提升。

儘管華爾街部分投資者對龐大的AI資本支出持謹慎態度,Nvidia早期公布Rubin計劃顯示,公司押注基於推理的AI將推動一場規模達數萬億美元的市場基礎設施升級。

評論與觀點

Nvidia此次加快AI硬件產品的發布節奏,清晰表現出其在全球AI基礎設施領域的領先地位與野心。Rubin超級晶片不單止在性能上大幅提升,更在成本效益上帶來革命性改變,這對於推動AI技術的普及與商業化至關重要。特別是針對多階段推理的Agent型AI模型,Rubin的設計顯示Nvidia已經洞察到未來AI發展的方向——從簡單模式識別,轉向更複雜的智能推理系統。

此外,Nvidia將硬件模組化,並結合AI原生的存儲處理器,這種架構創新為AI系統的能效和計算效率提供了新的突破。這不僅有助於降低運營成本,也能加快AI模型的部署速度,讓更多行業能夠快速採用AI技術。

在自動駕駛和機械人領域,Nvidia明確定位當前為「ChatGPT時刻」和「拐點」,凸顯了AI技術從數據中心向實體世界延伸的趨勢。Alpamayo與Jetson T4000的推出,展示了Nvidia不僅關注後端數據中心的運算,更積極布局前端的智能裝置,這將有助於加速AI在自動駕駛和工業自動化的落地。

然而,也必須注意到,AI基礎設施的升級是一項龐大且資本密集的工程,對於資金和技術的要求極高。華爾街的謹慎態度反映了市場對於AI熱潮的理性思考與風險評估。Nvidia能否在未來數年持續保持技術領先並成功商業化,將成為決定其市場地位的關鍵。

總括而言,Nvidia的Rubin超級晶片不僅是技術層面的突破,更是推動整個AI生態系統升級的催化劑。對香港及全球的科技市場來說,這代表著一個新的AI基礎設施競賽時代的來臨,值得密切關注。

以上文章由GPT 所翻譯及撰寫。

滴滴出行優惠 👉 新用戶香港 Call 車首程免費(最高減 HK$88)— 按此領取優惠!