輝達秀最強AI 晶片 宣布Rubin平台量產 台積、鴻海、廣達等吃補

輝達執行長黃仁勳5日宣布,最新Rubin平台AI晶片已進入量產,運算速度將是Blackwell平台倍數以上增長,且成本更低,亞馬遜AWS、微軟、Google等雲端服務供應商(CSP)最快下半年導入。
輝達再推「地表最強AI晶片」,開啟AI全新世代。法人看好,台積電(2330)、鴻海(2317)、廣達(2382)及緯創(3231)等供應鏈將跟著衝一波,2026年仍將是豐收的一年。
美國消費性電子展(CES 2026)將於6日至9日開跑,黃仁勳在開展前一天以「what's next in AI(人工智慧的下一步)」為主題,發表演講。

面對AI泡沫言論,黃仁勳高喊:「AI的競賽已經開跑」,目前價值10兆美元的傳統科技市場正在大幅轉型,未來都將以AI為基礎進行升級,「每個人都在努力邁向下一階段」,預期AI運算模型及市場需求仍持續爆炸性成長,使得AI基礎建設市場呈現快速上升趨勢,Rubin平台的問世將會替AI運算能力帶來新世代標準。
黃仁勳表示,全新Rubin平台已經開始進入量產階段,預計下半年出貨客戶。Rubin平台包含六大晶片,除了GPU的Rubin之外,另外還包含CPU Vera、NVLink 6交換器(Switch)、高速網路架構ConnectX-9 SuperNIC、加速雲端資料處理的Bluefield-4運算晶片,以及Spectrum-6乙太網路交換器。
黃仁勳透露,Rubin的運算能力是現有Blackwell的倍數以上,推論效能為Blackwell的五倍,訓練效能更有3.5倍成長;此外,新的CPU擁有88個核心,效能是原先的兩倍。
他強調,Rubin的每單位符元(token)運算成本僅先前產品的十分之一,在訓練當前市場主流的混合專家模型(MoE)所需的GPU數量僅需要過去的四分之一,節省成本之餘,更讓運算效能大幅提升。
輝達Rubin平台晶片由台積電以3奈米獨家操刀,並整合CoWoS先進封裝製程。業界傳出,台積電CoWoS先進封裝製程已經滿到今年底,所有協力封測廠也開始全力支援,後續將有望同步受惠。
黃仁勳並秀出Rubin平台打造的叢集AI伺服器平台,由36顆Vera、72顆Rubin加上NVLink 6交換器、Bluefield-4運算晶片打造成16櫃的AI伺服器運算系統。
黃仁勳強調,Rubin打造的AI伺服器與以往最大不同就是省去大量纜線,因此機殼也端出全新設計,讓組裝一櫃伺服器的時間大幅縮短,若以10%的液冷AI伺服器來計算,最短時間僅需五分鐘。
僅需 3 分鐘,簡單點選您的興趣與偏好,讓我們為您打造專屬的閱讀體驗!









