熱門:

2025年3月24日 中國財經

螞蟻推兩MoE大語言模型 用國產晶片訓練降成本

內地媒體報道,螞蟻集團Ling團隊近日發表技術成果論文,宣布推出兩款不同規模的混合專家(MoE)大語言模型─百靈輕量版(Ling-Lite)與百靈增強版(Ling-Plus),並提出一系列創新方法,實現在低性能硬件上高效訓練大模型,顯著降低成本。

報道指出,百靈輕量版參數規模為168億(啟動參數27.5億),增強版基座模型參數規模高達2900億(啟動參數288億),性能均達行業領先水平。實驗表明,其3000億參數的MoE大模型可在使用國產GPU的低性能設備上完成高效訓練,性能與完全使用輝達(Nvidia)晶片、同規模的稠密模型及MoE模型相當。

報道稱,當前MoE模型訓練通常依賴輝達的H100或H800等高性能GPU,成本高昂且晶片短缺,限制其在資源受限環境中的應用。螞蟻集團Ling團隊提出「不使用高級GPU」擴展模型的目標,通過創新訓練策略,突破資源與預算限制。

在5種不同硬件配置下,Ling團隊對9萬億個token進行Ling-Plus預訓練。結果顯示,使用高性能硬件設定訓練1萬億token的預訓練成本約635萬元(人民幣‧下同),而採用螞蟻優化方法後,低規格硬件訓練成本降至508萬元左右,節省近20%,且性能與阿里通義Qwen2.5-72B-Instruct和DeepSeek-V2.5-1210-Chat相當。

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。