加速AI普及 美光HBM3E記憶體正式量產
美商記憶體美光科技,今宣布其8層堆疊 24GB HBM3E解決方案已正式量產。美光HBM3E解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024年第2季出貨。美光強調將挾此產品優勢,取得業業界領先地位。
隨著AI需求不斷提升,能夠應付與日俱增工作負載的記憶體解決方案變得更加關鍵。美光強調該公司推出的 HBM3E 解決方案具備卓越效能, 每腳位傳輸速率超過 9.2 Gb/s,記憶體頻寬達 1.2 TB/s 以上,為 AI 加速器、超級電腦與資料中心提供如閃電般快速的資料存取速度。
與競爭產品相比,美光強調HBM3E功耗降低了30%,且為了支援日益增長的 AI 需求和應用,HBM3E 能以最低的功耗提供最大的傳輸量,進而改善資料中心重要的營運成本指標。
再者HBM3E具備可擴展性。美光表示,HBM3E目前提供24GB容量,使資料中心可無縫擴展其AI 應用,無論是用於訓練大型神經網路還是加速推理任務,美光解決方案都能為其提供所需的記憶體頻寬。
美光執行副總裁暨事業長 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三連勝:領先的上市時間、業界最佳的效能、傑出的能源效率。AI 工作負載亟需記憶體頻寬與容量,美光 HBM3E 和 HBM4 產品藍圖領先業界,針對 AI 應用提供完整的 DRAM 和 NAND 解決方案,支援未來 AI 顯著的成長。」
透過其 1β 技術、先進直通矽晶穿孔 (TSV) 和其他創新,美光得以發展領先業界的 HBM3E 設計,並實現具差異性的封裝解決方案。作為記憶體領域中 2.5D/3D 堆疊和先進封裝技術的領導者,美光相當自豪成為台積電 3DFabric 聯盟的合作夥伴,共同形塑半導體和系統創新的未來。
美光也規畫將在2024年3月推出12層堆疊 36GB HBM3E 的樣品,相較於競品,效能可達 1.2TB/s 以上並具備優異的能源效率,能進一步延續其業界領導地位。此外,美光也將成為輝達 GTC AI 大會的贊助商,該大會將於 3月18日開始,屆時美光將更詳細地分享其領先業界的 AI 記憶體產品組合與藍圖。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言