CSP往邊緣AI擴大發展 帶動NB DRAM 2025年平均搭載容量增幅7%
研究機構TrendForce觀察,2024年大型雲端CSPs,如Microsoft、Google、Meta、AWS等廠商,將仍為採購高階主打訓練用AI server的主力客群,以作為LLM及AI建模基礎。待2024年CSPs逐步完成建置一定數量AI訓練用server基礎設施後,2025年將更積極從雲端往邊緣AI拓展,包含發展較為小型LLM模型,以及建置邊緣AI server,促其企業客戶在各製造、金融、醫療、商務等各領域應用落地。
此外,因AI PC或NB在電腦設備基本架構組成與AI server較為相近,具有一定程度運算能力、可運行較小型LLM及GenAI等運用,有望成為CSPs橋接雲端AI基礎設施及邊緣AI小型訓練或推論應用的最後一哩路。
觀察近期晶片廠在AI PC的布局,Intel的Lunar Lake及AMD的Strix Point都是在本月COMPUTEX首次發布的SoC,並皆符合AI PC標準,故儘管Lunar Lake及Strix Point所配套的PC機種分別預計於今年第4季及今年第3季上市,使PC OEM會場工作人員僅以口頭說明該兩類機種的規格表現,惟該兩款SoC及所搭載的PC機種仍為活動中市場主要關注焦點。
在品牌端,ASUS及Acer繼5月推出搭載Qualcomm Snapdragon X Elite的機種後,也在COMPUTEX期間推出搭載Lunar Lake、Strix Point、Snapdragon X Elite的機種,MSI僅推出搭載Lunar Lake、Strix Point;新款AI PC建議售價落於1,399-1,899美元區間。
TrendForce認為,2025年隨著AI應用完善、能處理複雜任務、提供更好的用戶體驗並提高生產力,將帶動消費者對於更智能、更高效的終端設備需求迅速增長,AI NB滲透率將快速成長至20.4%的水位,預期AI NB浪潮亦將帶動DRAM Content成長。
TrendForce預估,NB DRAM平均搭載容量將自2023年的10.5GB年增12%至2024年的11.8GB。展望2025年,隨AI NB滲透率自2024年的1%提升至2025年的20.4%,且AI NB皆搭載16GB以上DRAM,將至少帶動整體平均搭載容量將成長0.8GB,增幅至少為7%。
TrendForce認為,AI NB除了帶動NB DRAM平均搭載容量提升外,亦將帶動省電、高頻率記憶體的需求,在這情況下,相較於DDR,LPDDR更能凸顯其優勢,因而加速LPDDR替代DDR的趨勢。對原本追求可擴展性的DDR、SO-DIMM方案而言,轉換至同屬模組的LPDDR、LPCAMM方案亦為LPDDR on board之外的選項之一。
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 LINE免費貼圖6款!這款「不可瑟瑟」免任務用半年 卡娜赫拉慶耶誕新年
📢 AirPods 4主動式降噪款開箱!實測噪音消滅驚豔 佩戴貼合度、音質再進化
📢 蘋果史上最薄!iPhone 17 Air僅6.25mm厚度 但藏1隱憂被當「中階手機」
📢 《軒轅劍參》Switch完全版開箱!典藏畫冊勾出老粉絲情懷 妮可Q版外露
📢 石頭G20S Ultra掃拖機器人開箱!7.98cm超薄機身鑽低矮區 星陣導航輕鬆過障礙賽
📢 果粉超愛「關iPhone APP保持順暢省電」!專家搖頭:手機電池壽命更慘
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言