在華碩伺服器上簽名 輝達黃仁勳力挺華碩MGX 架構AI伺服器
華碩(2357)今年參加輝達(NVIDIA)GTC 2024,21日正式對外宣布推出GPU伺服器ESC NM1-E1,由NVIDIA MGX模組化設計架構驅動,將為AI超級運算奠定全新標竿,輝達執行長黃仁勳也到華碩攤位上為新品簽名。
華碩指出,因應生成式人工智慧日益增長的需求,華碩採用來自NVIDIA最新技術,包括B200 Tensor Core GPU、GB200 Grace Blackwell Superchip和H200 NVL,以提供最佳化的AI伺服器解決方案,滿足更多跨產業AI應用。
華碩表示,為協助企業建立生成式AI環境,華碩也打造從入門級到高端的GPU伺服器,以及液冷機架,並憑藉MLPerf強大實力和針對大型語言模型(LLM)訓練、推理優化的軟、硬體,無縫整合全方位的AI解決方案,實現卓越超算力。
華碩採用2U機架的ESC NM1-E1伺服器,內建NVIDIA GH200 Grace Hopper超級晶片,其具備Arm Neoverse V9 CPU核心與可擴展向量延伸指令(SVE2),並由NVIDIA NVLink-C2C技術提供動力,擁有超高能效,再加上結合ConnectX-7的NVIDIA BlueField-3 DPU網路平台,連線速度高達每秒400Gb,非常適合企業開發、部署AI使用,同時還能透過NVIDIA AI Enterprise為AI數據中心、HPC、數據分析和NVIDIA Omniverse應用帶來無與倫比的靈活性和可擴展性。
AI應用的激增,提升了伺服器冷卻需求,而華碩的D2C液冷技術,不僅可快速安裝,亦能有效降低數據中心的電力使用效率(PUE),且ESC N8-E11和RS720QN-E11-RS24U兩款伺服器另支援集管和冷板,以實現多樣化的冷卻解決方案;此外,華碩伺服器均配備符合標準機架設計的後門散熱器,無需更換所有機架即可啟用液冷,建置更隨心所欲。
華碩持續與領先業界的供應商密切合作,提供企業級冷卻解決方案,盼藉此最大限度地減少碳排放和能源消耗,創建更環保節能的數據中心。
此外,本次會中,華碩的ESC4000A-E12也展示了一個整合軟體微型化技術的無代碼AI平台,讓企業能加速在LLM預先訓練、微調和推理方面的AI開發,以減少風險、提前上市時間,同時還支援不同LLM認證,從7B、33B甚至到180B以上,並配備客製化軟體,成就絕佳的伺服器數據調度。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言