NVIDIA發表全新語言模型 體積小巧又具最先進精確度

生成式人工智慧(AI)的開發者通常得面臨要取捨模型大小還是精確度的難題。不過,NVIDIA發表的全新語言模型倒是兼具兩者之長,這個模型體積小巧,又有最先進的精確度。
Mistral-NeMo-Minitron 8B 是Mistral AI 與NVIDIA在上個月共同發表開放式 Mistral NeMo 12B 模型的縮小版。Mistral-NeMo-Minitron 8B小到可以在 NVIDIA RTX 驅動的工作站上運行,同時在由 AI 支援的聊天機器人、虛擬助理、內容產生器和教育工具的多項基準測試中,表現依然十分出色。NVIDIA 使用開發客製化生成式 AI 的端對端平台 NVIDIA NeMo 蒸餾(distillation)出Minitron 模型。
NVIDIA 應用深度學習研究部門副總裁 Bryan Catanzaro 表示,「我們將兩種最佳化AI的方法加在一起。這包括以剪枝的方式將 Mistral NeMo 的 120 億個參數縮減為 80 億個,並且採用蒸餾方式提高精確度。這麼一來便能降低 Mistral-NeMo-Minitron 8B 的運算成本,又可以提供媲美原始模型的精確度」。
小型語言模型可以即時在工作站和筆記型電腦上執行,這一點跟大型語言模型不同。此舉使得資源有限的組織更容易在基礎設施中部署生成式 AI 功能,又能取得最佳的成本、運作效率和能源使用程度。由於無需從邊緣裝置將資料傳送到伺服器,在邊緣裝置上以本機端的方式運行語言模型另外有著安全性方面的優勢。
Mistral-NeMo-Minitron 8B 模型包裝成 NVIDIA NIM 微服務,並且最佳化至最佳狀態,有著低延遲的特色,能加快回應使用者的速度,並有高輸送量以降低生產環境的運算成本。
開發人員在某些情況下可能想要使用更小的模型,以便在智慧型手機或機器人等嵌入式裝置上運行。他們為此可以下載有著 80 億個參數的模型,並針對企業特定的應用程式使用 NVIDIA AI Foundry 剪枝和蒸餾出較小且最佳的神經網路。
NVIDIA強調這項技術代表只要使用原始資料集的一小部分,就能訓練一系列相關模型裡每個額外的模型,這跟從頭訓練一個較小的模型相比,剪枝和蒸餾一個較大的模型可以省下高達40倍的運算成本。
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 「找車位神器」3秒搜出停車格!5縣市可用 駕駛實測嘆:相見恨晚
📢網紅「小周牙醫」歧視同志言論挨轟!道歉被網抓包IG、YT秒做1事:沒誠意
📢 Switch 2台北體驗會7/5登場!抽選制、超詳細報名規則曝
📢 ASUS VivoWatch 6 AERO智慧手環開箱!指尖量心電圖 睡眠追蹤曝「9成全淺眠」
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 獨/等到iPhone嗶進站!蘋果iOS18.4開放台灣NFC交易 悠遊卡公司回應了
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言