CPO與 LPO 誰能主導 AI 資料中心?

【作者: 王岫晨】
隨著AI運算需求持續飆升,從大型語言模型(LLM)、生成式AI到高效能運算(HPC),資料中心面臨的最大瓶頸已不再是單純的晶片效能,而是頻寬、功耗與散熱。傳統電連接逐漸無法滿足AI GPU/TPU所需的龐大資料傳輸,促使 光電整合(Opto-Electronic Integration)成為必然趨勢。其中,CPO(Co-Packaged Optics,光電共封裝)與LPO(Linear Drive Pluggable Optics,線性可插拔光模組)兩種不同架構的方案,正成為全球大廠與台灣光通訊供應鏈的競逐焦點。
AI伺服器的頻寬與功耗挑戰
在生成式AI與超大規模訓練模型驅動下,單一AI伺服器可能搭載多達數十顆GPU,並透過高速互連進行大規模運算。以NVIDIA H100、B100系列為例,每顆GPU之間需要數百GB/s的資料傳輸能力,而未來HBM4/PCIe 7.0世代甚至將突破至數TB/s級別。
然而,傳統電氣傳輸的限制日益嚴峻:
‧ 能耗高:每bit傳輸功耗隨速率增加而線性上升。
‧ 距離瓶頸:銅線在超過2公尺後訊號嚴重衰減。
‧ 散熱壓力:高速SerDes晶片需要巨大的電力,進一步造成伺服器散熱挑戰。
因此,光模組取代電傳輸已成為趨勢。但問題在於:光學元件該如何與伺服器內部的ASIC、GPU、Switch晶片最佳化整合?這就是CPO與LPO之爭的核心。
【欲閱讀更豐富的內容,請參閱CTIMES出版中心】

延伸閱讀
贊助廣告
商品推薦
udn討論區
共 0 則留言
規範
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。












FB留言