追平滿血版o1的國產(chǎn)多模態(tài)模型終于來了!訓(xùn)練細節(jié)全部公開
春節(jié)前最后一周,能媲美 Open AI 滿血版 o1(Full Version,而非 preview)的模型終于出現(xiàn)了!
剛剛(),月之暗面公布了他們的 Kimi k 系列模型最新版本 ——k1.5 多模態(tài)思考模型。新模型在數(shù)學(xué)、代碼、多模態(tài)推理能力等方面全面對標(biāo) Open AI 滿血版 o1,而且是 OpenAI 之外首個多模態(tài) o1。尤其是 kimi-k1.5-short,成為 SOTA short cot 模型,并大幅領(lǐng)先 GPT-4o 和 Claude 3.5 Sonnet(提升幅度高達 550%)。
這是 Open AI 之外,首次有模型在數(shù)學(xué)和代碼能力上達到滿血 o1,月之暗面也是國內(nèi)第一個達到該水平的 AI 公司。在此之前,部分模型在各類 Benchmark 上可以達到 50 分、60 分的水平(相當(dāng)于 o1-preview),而 o1 滿血版是 80 分、90 分水平,Kimi k1.5 的成績令人眼前一亮。
這一切是怎么做到的呢?在 Kimi 技術(shù)團隊同步發(fā)布的技術(shù)報告中,我們可以看到他們在新技術(shù)范式下的模型訓(xùn)練技術(shù)探索之路。
- 技術(shù)報告:Kimi k1.5:借助大語言模型實現(xiàn)強化學(xué)習(xí)的 Scaling
- 報告鏈接:https://github.com/MoonshotAI/kimi-k1.5
這種技術(shù)透明度在當(dāng)前競爭激烈的大模型市場上并不多見。在談及為什么要這么做時,月之暗面表示,「因為我們意識到,AGI 之旅才剛剛開始。我們想讓更多技術(shù)人才了解我們在做的事情,加入我們一起做到更多」。
Kimi k1.5 多項測試,全部 SOTA
從技術(shù)報告來看,Kimi k1.5 多模態(tài)推理模型實現(xiàn)了 SOTA (state-of-the-art)級別的推理和通用能力,具體而言:
在 long-CoT 模式下,Kimi k1.5 在數(shù)學(xué)、代碼及多模態(tài)推理能力上,達到長思考 SOTA 模型 OpenAI o1 正式版的水平。Kimi k1.5 在 AIME 上達到 77.5 分,在 MATH 500 上達到 96.2 分,在 Codeforces 上達到 94 百分位,在 MathVista 上達到 74.9 分。
這應(yīng)該是全球范圍內(nèi),OpenAI 之外的公司首次實現(xiàn) o1 滿血版性能。此前的模型只能達到 o1-preview 或 o1-mini 的推理能力。
在 short-CoT 模式下,Kimi k1.5 在數(shù)學(xué)、代碼、視覺多模態(tài)和通用能力上,也達到了全球范圍內(nèi)短思考 SOTA 模型 ,并大幅領(lǐng)先 GPT-4o 和 Claude 3.5 Sonnet 的水平。比如,Kimi k1.5 在 AIME 上達到 60.8 分,MATH500 上達到 94.6 分,LiveCodeBench 上達到 47.3 分。
不僅如此,從全球前沿大模型數(shù)學(xué)競賽和編程競賽基準(zhǔn)測試來看,Kimi k1.5 的表現(xiàn)也相當(dāng)不錯,處于全球第一梯隊,而這兩項測試代表了人類智商巔峰。
總之,從 Benchmark 數(shù)據(jù)來看,k1.5 的推理能力實現(xiàn)了很大提升,可以幫助我們解鎖更難的代碼、數(shù)學(xué)、生活等問題。
Kimi k1.5 是怎么練成的?
隨著模型尺寸逐漸增大,預(yù)訓(xùn)練階段參數(shù) scaling up 帶來的邊際收益開始遞減,如果想要深度提升模型推理能力和長程問題能力,基于強化學(xué)習(xí)的 Post-Training 將會成為下一個突破點 [1],因為 scaling 強化學(xué)習(xí)為人工智能的持續(xù)進步開辟了新的維度,它使得大語言模型能夠通過帶有獎勵的探索學(xué)習(xí)來擴展其訓(xùn)練數(shù)據(jù),從而也實現(xiàn)計算規(guī)模的擴展。
大的方向非常明確,然而,此前發(fā)表的研究工作尚未產(chǎn)生具有競爭力的結(jié)果。
有鑒于此,Kimi 技術(shù)團隊在 Kimi k1.5 的訓(xùn)練實踐中全面探索了 RL 訓(xùn)練技術(shù)、多模態(tài)數(shù)據(jù)配方和基礎(chǔ)設(shè)施優(yōu)化。
難得的是,他們探索出的 RL 框架簡單、有效,無需依賴蒙特卡洛樹搜索、價值函數(shù)和過程獎勵模型等更復(fù)雜的技術(shù)也能取得優(yōu)異的性能。
此外,他們還提出了有效的 long2short 技術(shù),利用 Long-CoT 技術(shù)來改進 Short-CoT 模型,使得模型在短鏈思維推理方面取得了最佳成果。
簡單、有效的 RL 框架
Kimi 技術(shù)團隊設(shè)計的簡單而有效的 RL 框架離不開兩個關(guān)鍵要素:長上下文 scaling 和改進的策略優(yōu)化。
先說長上下文 scaling。他們將強化學(xué)習(xí)的上下文窗口 scale 到 128k,并觀察到隨著上下文長度的增加,模型性能持續(xù)改善。新方法背后的一個關(guān)鍵理念是使用 partial rollout 來提高訓(xùn)練效率 —— 即通過重用大量以前的軌跡來采樣新的軌跡,避免從頭重新生成新軌跡的成本。技術(shù)團隊的觀察表明,上下文長度是大語言模型強化學(xué)習(xí)持續(xù) scaling 的一個關(guān)鍵維度。
再來看策略優(yōu)化的改進。他們推導(dǎo)出了一個具有 long-CoT 的強化學(xué)習(xí)公式,并采用在線鏡像下降法的變體來實現(xiàn)穩(wěn)健的策略優(yōu)化。通過有效的采樣策略、長度懲罰和數(shù)據(jù)配方的優(yōu)化,他們進一步改進了該算法。
通過將這兩個關(guān)鍵要素結(jié)合,Kimi 技術(shù)團隊建立了一個用于 LLM 學(xué)習(xí)的簡化強化學(xué)習(xí)框架。由于該框架能夠 scale 上下文長度,學(xué)習(xí)到的 CoT 展現(xiàn)出規(guī)劃、反思和糾正的特性。增加的上下文長度具有增加搜索步驟數(shù)量的效果。因此,他們表明無需依賴蒙特卡洛樹搜索、價值函數(shù)和過程獎勵模型等更復(fù)雜的技術(shù)也能實現(xiàn)強大的性能。
此外,他們的模型還在文本和視覺數(shù)據(jù)上進行了聯(lián)合訓(xùn)練,具備對這兩種模態(tài)進行聯(lián)合推理的能力。
long2short 技術(shù)
盡管 long-CoT 模型在性能上表現(xiàn)出色,但與標(biāo)準(zhǔn)的 short-CoT LLM 相比,它在測試時消耗的 token 數(shù)量更多。然而,Kimi 技術(shù)團隊發(fā)現(xiàn)將 long-CoT 模型的思維先驗遷移到 short-CoT 模型中是可能的,從而在有限的測試 token 預(yù)算下提升性能。
他們提出了幾種解決這一 long2short 問題的方法,包括模型融合、最短拒絕采樣、DPO 以及 long2short RL。以下是這些方法的詳細描述:
- 模型融合。團隊人員發(fā)現(xiàn)模型融合(Model Merging)有助于保持模型的泛化能力。他們還發(fā)現(xiàn),在融合 long-CoT 模型和 short-CoT 模型時,模型融合也能有效提升 token 效率。這種方法通過將 long-CoT 模型與 short-CoT 模型結(jié)合,從而在不進行訓(xùn)練的情況下獲得一個新模型。具體來說,他們通過簡單地平均兩個模型的權(quán)重來實現(xiàn)融合。
- 最短拒絕采樣。研究者觀察到,模型在回答相同問題時生成的響應(yīng)長度存在較大差異?;诖?,他們設(shè)計了最短拒絕采樣(Shortest Rejection Sampling)方法。該方法對同一個問題采樣 n 次(實驗中,n=8),并選擇最短的正確響應(yīng)進行監(jiān)督微調(diào)。
- DPO。與最短拒絕采樣類似,團隊人員利用 Long CoT 模型生成多個響應(yīng)樣本。并選擇最短的正確解決方案作為正樣本,而較長的響應(yīng)則被視為負樣本,包括錯誤的較長響應(yīng)和正確的較長響應(yīng)。這些正負樣本對構(gòu)成了用于 DPO 訓(xùn)練的成對偏好數(shù)據(jù)。
- Long2short RL。在標(biāo)準(zhǔn)的 RL 訓(xùn)練階段之后,團隊人員選擇一個在性能和 token 效率之間達到最佳平衡的模型作為基礎(chǔ)模型,并進行單獨的 long2short RL 訓(xùn)練階段。在這個第二階段中,他們還應(yīng)用了長度懲罰機制,從而顯著減少最大 rollout 長度,以進一步懲罰那些超出期望長度但可能正確的響應(yīng)。
除了以上這些,Kimi k1.5 的技術(shù)報告還透露了很多信息。感興趣的讀者可以去閱讀原文。
2025:加速升級 k 系列強化學(xué)習(xí)模型
OpenAI 于 2024 年 5 月、9 月推出的 GPT-4o、o1 兩個模型,分別代表了多模態(tài)理解、強化學(xué)習(xí)兩條技術(shù)路線。在這兩條路線上,國內(nèi) AI 公司都在陸續(xù)發(fā)力,并在最近展開了激烈競爭。如今,Kimi 模型在能力上最接近 o1,這讓外界對這家公司在 2025 年的表現(xiàn)充滿了期待。
月之暗面表示,2025 年,他們會繼續(xù)加速升級 k 系列強化學(xué)習(xí)模型,帶來更多模態(tài)、更多領(lǐng)域的能力和更強的通用能力。
我們也期待新模型的早日上線!