字節跳動旗下「豆包」新模型架構 推理成本最多降83%

字節跳動旗下「豆包大模型」Foundation團隊,近期提出一種全新的稀疏模型架構「UltraMem」,該架構在保證模型效果的前提下,推理速度較傳統的MoE(專家混合模型)架構提升2到6倍,推理成本最高可降低83%。
陸媒財聯社報導,這項創新成果已被機器學習和AI領域的頂級會議ICLR 2025接收,為解決大模型推理效率和擴展能力問題提供了全新思路。
大模型的推理能力,對應的是端側AI應用/工具的回應能力和速度。隨著模型規模的擴大,推理成本和訪存效率已成為限制大模型規模應用的關鍵瓶頸。
在Transformer架構下,模型的性能與參數數量和計算複雜度呈對數關係。隨著LLM規模不斷增大,推理成本會急劇增加,速度變慢。
為了解決計算問題,先前的研究者提出MoE和PKM(Product Key Memory)方案,但都有各自侷限性。包括MoE架構犧牲了效率、PKM架構犧牲了效果,這些侷限性使得MoE和PKM在推理效率、模型效果和擴展能力等方面的優化空間仍需進一步探索,UltraMem正是為了解決上述缺點。
UltraMem參考了PKM的設計,但針對PKM的缺陷予以補充,優勢主要在於降低推理成本、提升推理速度、保持模型效果。
豆包研究團隊在151M、680M、1.6B三個不同規模的模型上進行了廣泛的實驗。實驗結果顯示,UltraMem在模型效果和推理速度方面均優於MoE和PKM架構,且在680M、1.6B上具有顯著的效果優勢。
報導提到,無論是訓練端還是推理端,當大模型廠商「捲」起成本,代表AI應用將在未來更加高效易用;當推理成本大幅降低,將助推AI技術在更多領域的應用成為可能,尤其是對於資源受限的場景,如邊緣計算和移動設備等,能讓更多企業和開發者有能力使用和部署AI模型。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言