自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從o1-mini到DeepSeek-R1,萬字長文帶你讀懂推理模型的歷史與技術(shù)

人工智能 新聞
推理模型是一種真正新型的 LLM,它將迫使我們重新思考現(xiàn)有的框架。多年來一直使用的技術(shù)(例如,少樣本提示)對于這些新模型來說已經(jīng)過時了。LLM 研究領(lǐng)域正在再次自我重塑。

自 OpenAI 發(fā)布 o1-mini 模型以來,推理模型就一直是 AI 社區(qū)的熱門話題,而春節(jié)前面世的開放式推理模型 DeepSeek-R1 更是讓推理模型的熱度達(dá)到了前所未有的高峰。

近日,Netflix 資深研究科學(xué)家 Cameron R. Wolfe 發(fā)布了一篇題為「揭秘推理模型」的深度長文,詳細(xì)梳理了自 o1-mini 開始至今的推理模型發(fā)展史,并詳細(xì)介紹了讓標(biāo)準(zhǔn) LLM 變成推理模型的具體技術(shù)和方法。

機器之心編譯了這篇文章以饗讀者,同時我們還在文末梳理了 17 篇我們之前發(fā)布的與推理模型相關(guān)的文章一并奉上。

圖片

原文地址:https://cameronrwolfe.substack.com/p/demystifying-reasoning-models

前些年,大型語言模型(LLM)已經(jīng)形成了相對固定的流程。

首先,在來自互聯(lián)網(wǎng)的原始文本數(shù)據(jù)上預(yù)訓(xùn)練語言模型。之后,對齊這些模型,也就是讓它們的輸出更符合人類的偏好,這會用到監(jiān)督微調(diào)(SFT)和基于人類反饋的強化學(xué)習(xí)(RLHF)等技術(shù)。

不管是預(yù)訓(xùn)練還是對齊,都對模型質(zhì)量至關(guān)重要,但驅(qū)動這一范式發(fā)展的大部分動力卻來自 Scaling Law—— 使用更多數(shù)據(jù)訓(xùn)練更大的模型,就能得到更好的結(jié)果。

圖片標(biāo)準(zhǔn) LLM 的訓(xùn)練流程

近段時間,LLM 研究中出現(xiàn)了一個全新的范式:推理。與標(biāo)準(zhǔn) LLM 相比,推理模型解決問題的方式完全不同。特別是,它們在提供問題的最終答案之前會花費一些時間「思考」。訓(xùn)練能夠有效思考(例如,分解問題、檢測思維中的錯誤、探索替代解決方案等)的模型需要新的策略,通常涉及大規(guī)模強化學(xué)習(xí)(RL)。此外,此類模型還會為通過強化學(xué)習(xí)和推理進(jìn)行訓(xùn)練的范式涌現(xiàn)出新的 Scaling Law。

圖片

來自 [4]

本文將介紹有關(guān)推理模型的最新進(jìn)展的更多信息。首先,我們將重點介紹 OpenAI 最早提出的幾種(封閉式)推理模型。我們將在上下文中解釋 LLM 推理能力的基本思想。之后,我們將探索最近提出的(開放式)推理模型,概述從頭開始創(chuàng)建此類模型的必要細(xì)節(jié)。推理模型與標(biāo)準(zhǔn) LLM 不同。但不用擔(dān)心。LLM 的許多關(guān)鍵概念仍然適用于推理模型。我們將在整個過程中澄清它們之間的重要區(qū)別。

推理時代

就在 AI 發(fā)展看起來要放緩之際,推理模型開始普及,LLM 的能力開始陡然提升。OpenAI 首先發(fā)布了 o1-preview [4],隨后是一系列蒸餾版(更?。┠P?,包括 o1-mini 以及 o3 的一些變體版本。其它公司也紛紛跟進(jìn),包括谷歌的 Gemini 2.0 Flash Thinking。這一節(jié)將探討這些最早的封閉式推理模型及其工作原理背后的基本思想。

最早的推理模型:o1 和 o1-mini

OpenAI 發(fā)布 o1-preview [4, 5] 時明確了兩件事:

  • 推理模型可以非常準(zhǔn)確地解決可驗證的任務(wù),比如數(shù)學(xué)和編程任務(wù)。
  • 推理模型解決這些問題的方法與傳統(tǒng) LLM 的方法截然不同。

長思維鏈。推理模型與標(biāo)準(zhǔn) LLM 的主要區(qū)別在于在回答問題之前會進(jìn)行「思考」。推理模型的思考就是 LLM 輸出的長思維鏈(有時也被稱為推理跡線或軌跡)。長思維鏈的生成方式與任何其他文本序列無異。然而,這些推理軌跡表現(xiàn)出了非常有趣的特性 —— 它們更類似于搜索算法而不是原始文本生成。舉個例子,推理模型可能會:

  • 仔細(xì)考慮復(fù)雜問題的每個部分。
  • 將復(fù)雜問題分解為更小的可解決部分。
  • 批評其自身的(部分)解決方案并發(fā)現(xiàn)錯誤。
  • 探索許多替代解決方案。

有關(guān)這些推理軌跡的一些具體示例,請參閱 OpenAI 博客:https://openai.com/index/learning-to-reason-with-llms/ 

值得注意的是,OpenAI 推理模型使用的長思維鏈隱藏在其內(nèi)部,這意味著在與模型交互時,用戶看不見它們。用戶只能看到模型編寫的長思維鏈摘要,如下所示:

圖片

推理模型的長思維鏈輸出為我們提供了一種控制 LLM 推理時間計算的簡單方法。如果我們想花費更多計算來解決問題,我們可以簡單地生成更長的思維鏈。同樣,不太復(fù)雜的問題可以用較短的思維鏈解決,從而節(jié)省推理時間的計算。

推理能力。最初的推理模型實際上在許多方面都不如標(biāo)準(zhǔn) LLM,但它們將 LLM 的推理能力提高了幾個數(shù)量級。例如,o1-preview 的推理表現(xiàn)總是優(yōu)于 GPT-4o,甚至在大多數(shù)復(fù)雜推理任務(wù)上能與人類專家的表現(xiàn)相媲美。為了實現(xiàn)這些結(jié)果,o1-preview 使用最大化的推理時間計算以及 i) 單個輸出樣本(柱狀圖主干)或 ii) 64 個并行輸出樣本中的多數(shù)投票(柱狀圖增高部分)進(jìn)行評估。

圖片

o1 系列模型與 GPT-4o 在多個推理任務(wù)上的比較,來自 [5]

o1-preview 之后,OpenAI 的 o1(preview 發(fā)布幾個月后發(fā)布的 o1 的完整版本)在美國數(shù)學(xué)奧林匹克資格考試(AIME 2024)中名列前 500 名,在 Codeforces 上排名在競賽人類程序員的第 11 個百分位之內(nèi)。作為參考,GPT-4o 僅解決了 12% 的 AIME 問題,而 o1 解決了 74% 到 93% 的問題,具體取決于推理設(shè)置。有關(guān) o1 和 GPT-4o 性能的更詳細(xì)比較,請參見下圖。

圖片

o1 明顯優(yōu)于 GPT-4o(來自 [5])

同樣,o1-mini(o1 的更便宜、更快的版本)也具有令人印象深刻的推理能力,不過相比于完整版 o1 模型,其成本降低了 80%。雖然與 o1 相比,o1-mini 的世界知識有限,但它在編程任務(wù)方面尤其出色,而且考慮到其效率,其表現(xiàn)非常出色。

當(dāng)前最佳的推理模型:o3 和 o3-mini

圖片

OpenAI o3 在 ARC-AGI 上的性能

在宣布和發(fā)布 o1 模型后不久,OpenAI 宣布了 o3——o1 系列中最新的模型。這個模型最初只是宣布(未發(fā)布)。我們能夠在幾個值得注意的基準(zhǔn)上看到該模型的性能(由 OpenAI 測量),但實際上無法使用該模型。OpenAI 發(fā)布的指標(biāo)非常驚人。事實上,o3 的表現(xiàn)讓很多人感到震驚。o3 最顯著的成就是:

  • 在 ARC-AGI 基準(zhǔn)測試中得分為 87.5%——AGI 的「北極星」,五年來一直保持不敗 ——GPT-4o 的準(zhǔn)確率為 5%。o3 是第一個在 ARC-AGI 上超過人類水平 85% 的模型。
  • 在 SWE-Bench Verified 上的準(zhǔn)確率為 71.7%,在 Codeforces 上的 Elo 得分為 2727,使 o3 躋身全球前 200 名競爭性程序員之列。
  • 在 EpochAI 的 FrontierMath 基準(zhǔn)測試中的準(zhǔn)確率為 25.2%,相比之前最佳的 2.0% 的準(zhǔn)確率大幅提高。

然而,公眾無法訪問 o3 模型來驗證任何這些結(jié)果。在撰寫本文時,完整的 o3 模型仍未發(fā)布,但 OpenAI 最近發(fā)布了該模型的較小版本 ——o3-mini [6]。

與 OpenAI 的其他推理模型相比,o3-mini 更具成本效益且更易于投入生產(chǎn)。例如,此模型支持函數(shù)調(diào)用、Web 搜索和結(jié)構(gòu)化輸出等功能。o3-mini 還具有多種設(shè)置,包括 low、medium 和 high,這指定了用于解決問題時執(zhí)行的推理量。此設(shè)置可以直接在 API 請求中指定,并且該模型的表現(xiàn)非常驚人 —— 在許多情況下與 o1 相當(dāng),具體取決于推理工作量的級別。

圖片

o3-mini 性能詳情(來自 [6])

在大多數(shù)情況下,推理工作量 low 的 o3-mini 與 o1-mini 的性能相當(dāng),而推理工作量 high 的 o3-mini 的性能則超過 OpenAI 發(fā)布的所有其他推理模型(包括完整版 o1 模型)。

與之前的推理模型相比,o3-mini 還具有更好的世界知識(即提高了事實性),效率明顯更高,并且在人類偏好研究中得分更高。特別是,[6] 中提到,在內(nèi)部 A/B 測試期間,「o3-mini 的響應(yīng)速度比 o1-mini 快 24%,平均響應(yīng)時間為 7.7 秒,而 o3-mini 為 10.16 秒?!筼3-mini 是 OpenAI 的 o1 式推理模型中(迄今為止)發(fā)布的最高效的模型。

圖片

o3-mini 與 o1-mini 在 STEM / 非 STEM 提示詞上的勝率(來自 [6])

其它模型提供方。OpenAI 發(fā)布 o1 式模型后,其他模型提供方也迅速跟進(jìn)。例如,谷歌最近發(fā)布了實驗性的 Gemini-2.0 Flash Thinking,它保留了 Gemini 模型的標(biāo)志性長上下文 ——1M token 上下文窗口,并在關(guān)鍵可驗證任務(wù)(例如 AIME 和 GPQA)上取得了可觀的指標(biāo)。然而,這個模型的性能仍然落后于 o1 和 o3-mini。

圖片

最近,Grok-3 的推理測試版發(fā)布,非常引人注目。如下所示,Grok-3 推理模型在 high 推理工作量下超過了 o3-mini 的性能,甚至在少數(shù)情況下接近完整的 o3 模型;例如,AIME'24 的準(zhǔn)確率為 96%,而 o3 的準(zhǔn)確率為 97%。使用大型新計算集群進(jìn)行訓(xùn)練的 Grok-3 令人印象深刻(尤其是考慮到 xAI 的年輕)。在撰寫本文時,Grok-3 的推理測試版是與 OpenAI 推理模型最接近的競爭對手。

圖片

推理模型的基準(zhǔn)

在進(jìn)一步了解推理模型的工作原理之前,讓我們更深入地了解它們的性能。要真正了解這些模型的能力,我們需要做的不僅僅是查看指標(biāo) —— 我們需要檢查這些模型正在解決的問題的具體示例。例如,考慮 GSM8K(如下所示),這是一個小學(xué)水平的數(shù)學(xué)基準(zhǔn)。這些問題可能看起來微不足道,但 LLM 們多年來一直在努力準(zhǔn)確地解決這個基準(zhǔn)。

圖片

GSM8K 中的示例問題


隨著推理模型的出現(xiàn),這個基準(zhǔn)已經(jīng)完全飽和 —— 我們不再能用它來有意義地評估最佳推理模型。相反,我們開始用 LLM 解決更難的問題。

圖片

AIME 2024 中的示例問題

例如,考慮 AIME 2024 中的第 15 個問題,如上所示。這個問題相當(dāng)復(fù)雜,超過了 GSM8K 中的算術(shù)推理問題。有(至少)六種不同的方法可以解決這個問題,所有這些方法都需要掌握高級數(shù)學(xué)技巧(例如導(dǎo)數(shù)、數(shù)論或拉格朗日乘數(shù))。

此外,推理模型正在解決的復(fù)雜基準(zhǔn)還不僅僅是數(shù)學(xué)!例如,GPQA [7] 包含來自多個科學(xué)領(lǐng)域的數(shù)百道多項選擇題;例如,生物學(xué)、物理學(xué)和化學(xué)。所有這些問題都是由領(lǐng)域?qū)<揖帉懙模?jīng)過驗證,它們既非常困難,又無法通過互聯(lián)網(wǎng)搜索找到答案,這意味著即使有足夠的時間和不受限制的互聯(lián)網(wǎng)訪問,非專家也很難解決這些問題。

「我們確保這些問題是高質(zhì)量且極其困難的:擁有或正在攻讀相應(yīng)領(lǐng)域博士學(xué)位的專家的準(zhǔn)確率達(dá)到 65%,而技能嫻熟的非專家驗證者準(zhǔn)確率僅為 34%,并且他們即便可以不受限制地訪問網(wǎng)絡(luò),也平均花費了超過 30 分鐘的時間?!?- 來自 [7]

ARC-AGI 基準(zhǔn) —— 被描述為「邁向 AGI 的重要墊腳石」—— 涉及各種基于網(wǎng)格的謎題,其中 LLM 必須在輸入輸出網(wǎng)格中學(xué)習(xí)模式,并在最終輸出示例中完美復(fù)制這種學(xué)習(xí)到的模式。大多數(shù) LLM 都很難解決這些難題(例如,GPT-4o 的準(zhǔn)確率僅為 5%),但推理模型在這個基準(zhǔn)上表現(xiàn)相當(dāng)不錯 —— 準(zhǔn)確率可達(dá) 30-90%,具體取決于計算預(yù)算。

圖片

至少可以說,這些是推理 LLM 開始解決的不同級別的(非平凡)問題。盡管這些基準(zhǔn)測試難度很大,但現(xiàn)代推理模型的能力也很強 —— 據(jù)報道,OpenAI 的 o3 模型在 AIME 2024 上取得了近 97% 的分?jǐn)?shù)。在人工檢查其中一些問題后,我們可以真正理解這個結(jié)果的重要性。

推理模型基礎(chǔ)

雖然上面介紹的推理模型顯然令人印象深刻,但都是封閉模型。因此,我們不知道它們實際上是如何工作的。我們得到的唯一信息是上面的引文和如下所示的圖表。

圖片

(來自 [5])

然而,從這些有限的信息中,我們可以得出一些有用的結(jié)論。主要而言,擴展推理模型涉及兩個關(guān)鍵組件:

  • 通過強化學(xué)習(xí)進(jìn)行更多訓(xùn)練。
  • 更多推理時間計算(即推理時間擴展)。

盡管 OpenAI 并未透露擴展推理模型這兩個組件的方法背后的許多細(xì)節(jié),但仍有大量關(guān)于此主題的研究發(fā)表。為了提供更多背景信息,讓我們簡要介紹一下其中一些工作,加上 OpenAI 分享的細(xì)節(jié),可以讓我們大致了解推理模型訓(xùn)練和使用的一些關(guān)鍵概念。

具有可驗證獎勵的強化學(xué)習(xí)

關(guān)于 o1 式模型,我們應(yīng)該注意到的一個細(xì)節(jié)是,它們主要用于本質(zhì)上可驗證的問題并根據(jù)這些問題進(jìn)行評估;例如數(shù)學(xué)和編程。但是,在這種情況下,「可驗證(verifiable)」到底是什么意思?

首先,我們假設(shè)我們可以獲取 i)問題的基本答案或 ii)可用于驗證正確性的某些基于規(guī)則的技術(shù)。

圖片

通過精確字符串匹配驗證數(shù)學(xué)問題

例如,我們可以為大多數(shù)數(shù)學(xué)問題定義一個基本答案 —— 在 GSM8K 中,這是使用 #### <answer> 語法完成的。然后,我們可以從 LLM 的輸出中提取最終答案,并使用基本字符串匹配將此答案與 ground truth 答案進(jìn)行比較;見上圖。類似地,如果我們?yōu)榫幊虇栴}準(zhǔn)備了測試用例,我們可以簡單地執(zhí)行由 LLM 生成的代碼并檢查提供的解決方案是否滿足所有測試用例。

「可驗證獎勵的強化學(xué)習(xí)(RLVR)可以看作是現(xiàn)有引導(dǎo)語言模型推理方法的簡化形式或具有執(zhí)行反饋的更簡單形式的強化學(xué)習(xí),其中我們只需使用答案匹配或約束驗證作為二進(jìn)制信號來訓(xùn)練模型?!?- 來自 [13]

說一個領(lǐng)域是「可驗證的」并不意味著我們可以自動驗證該領(lǐng)域問題的任意解決方案。相反,我們經(jīng)常需要訪問 ground truth 答案(通常從人類那里獲得)進(jìn)行驗證。

但是,有些行為可以使用簡單規(guī)則而不是 ground truth 來驗證。例如,我們可以使用一組硬編碼規(guī)則執(zhí)行簡單檢查來確定推理模型是否具有正確的輸出格式、是否遵循某些指令或是否產(chǎn)生特定長度的輸出(例如,o3-mini 使用的 low、medium 或 high 推理工作量)。

驗證復(fù)雜性。根據(jù)我們正在解決的問題,驗證 LLM 的輸出可能會變得非常復(fù)雜。即使對于數(shù)學(xué)問題,驗證 LLM 的答案與基本事實之間的匹配也很困難。例如,解答可能以不同的形式或格式呈現(xiàn),從而導(dǎo)致假陰性驗證。在這些情況下,簡單的字符串匹配可能還不夠!相反,我們可以提示 LLM,讓其告訴我們這兩個解是否匹配,這已被發(fā)現(xiàn)可以大大減少不正確的驗證 [14]。對于代碼,實現(xiàn)驗證也很困難 —— 它需要構(gòu)建一個數(shù)據(jù)管道,并且其要非常有效地在訓(xùn)練設(shè)置中執(zhí)行和驗證測試用例。

神經(jīng)驗證。除了上面概述的可驗證問題之外,我們還可以考慮較弱的驗證形式。例如,創(chuàng)意寫作是一項難以驗證的任務(wù)。但是,我們可以:

  • 訓(xùn)練神經(jīng)獎勵模型或驗證器。
  • 使用此模型對 LLM 輸出進(jìn)行評分。
  • 使用預(yù)測分?jǐn)?shù)作為獎勵或驗證信號。

這樣的設(shè)置與基于人類反饋的強化學(xué)習(xí)(RLHF)非常相似。在這種情況下,會訓(xùn)練獎勵模型根據(jù)模型響應(yīng)的正確性或質(zhì)量執(zhí)行二元驗證。但是,使用神經(jīng)驗證器會有獎勵 hacking 的風(fēng)險,尤其是在執(zhí)行大規(guī)模強化學(xué)習(xí)時。模型的訓(xùn)練時間更長,并且會對獎勵圖景進(jìn)行更多探索,從而增加了獎勵 hacking 的風(fēng)險。因此,許多最近的推理模型都避開了這種方法。

「我們在開發(fā) DeepSeek-R1-Zero 時沒有應(yīng)用神經(jīng)獎勵模型,因為我們發(fā)現(xiàn)神經(jīng)獎勵模型在大規(guī)模強化學(xué)習(xí)過程中可能會受到獎勵 hacking 攻擊的影響,而重新訓(xùn)練獎勵模型需要額外的訓(xùn)練資源,這會使整個訓(xùn)練流程變得復(fù)雜?!?- 來自 [1]

用可驗證的獎勵學(xué)習(xí)。我們現(xiàn)在了解了驗證,但如何使用驗證來訓(xùn)練 LLM?思路很簡單:直接將驗證結(jié)果用作使用強化學(xué)習(xí)進(jìn)行訓(xùn)練的獎勵信號。有很多不同的方法可以實現(xiàn)這個思路(例如,過程獎勵或純強化學(xué)習(xí)),但它們的共同主題是使用強化學(xué)習(xí)根據(jù)可驗證的獎勵學(xué)習(xí)。這是所有現(xiàn)代推理模型根基的基本概念。

圖片

(來自 [13])

對于使用強化學(xué)習(xí)從可驗證的獎勵中學(xué)習(xí)的方法,可以參考 Sasha Rush 的這個視頻:https://youtu.be/6PEJ96k1kiw

推理時間策略:思路鏈和解碼

我們可以通過兩種基本方法來增加語言模型在推理時消耗的計算量:

  • 生成更多 token(即更長的輸出序列)。
  • 生成多個輸出。

在本節(jié)中,我們將更詳細(xì)地介紹這些技術(shù),探索如何通過思維鏈和不同的解碼策略(如并行解碼與順序解碼)在 LLM 中實際實現(xiàn)它們。

圖片

(來自 [8])

思維鏈。我們已經(jīng)知道推理模型使用長思維鏈作為推理媒介。在 [8] 中提出,最簡單的層面上,思維鏈只是 LLM 為其自身輸出提供的一種解釋。在大多數(shù)情況下,這些解釋是在 LLM 生成最終答案之前編寫的,允許模型在生成答案時將其解釋用作上下文。

推理模型使用的長思維鏈與標(biāo)準(zhǔn)思維鏈有很大不同。標(biāo)準(zhǔn)思維鏈簡潔易讀。長思維鏈有幾千個 token。雖然它可以用于解釋模型,但長思維鏈并未針對人類可讀性進(jìn)行優(yōu)化。相反,它是一種寬泛的推理軌跡,以詳細(xì)的方式解決問題,并包含各種復(fù)雜的推理行為(例如,回溯和自我優(yōu)化)。

「我們決定不向用戶展示原始的思維鏈…… 我們努力通過教導(dǎo)模型從答案中的思維鏈中重現(xiàn)有用的想法來部分彌補 [這一決定]。對于 o1 模型系列,我們會展示模型生成的思維鏈摘要。」 - 來自 [5]

此外,推理模型會在邏輯上將其思維鏈與模型的最終輸出分開。例如,OpenAI 不會向用戶展示長思維鏈,而是提供 LLM 生成的長思維鏈摘要來補充推理模型的最終答案。由于思維鏈的長度,這種邏輯分離是有必要的。大多數(shù)用戶只會閱讀最終答案 —— 閱讀整個推理軌跡將非常耗時。

圖片

(來自 [15])

并行解碼。為了提高 LLM 最終輸出的準(zhǔn)確性,我們還可以使用并行解碼技術(shù)。思路很簡單:不使用 LLM 生成單個輸出,而是生成多個輸出并聚合這些輸出以形成單個最終答案。這種聚合可以通過多種方式完成;例如,使用多數(shù)投票或共識、使用加權(quán)投票、使用神經(jīng)獎勵模型或驗證器(即也稱為 Best-of-N 或拒絕采樣)或其他特定領(lǐng)域算法找到最佳輸出。

這些方法的主要好處是簡單又有效。并行解碼很容易擴展:我們只需生成、驗證和聚合大量輸出,就能得到有意義的性能提升 [9, 10, 11]。o1 式模型顯然使用了并行解碼技術(shù) —— 只需查看其博客中提供的圖表細(xì)節(jié)(如下所示)!但是,并行解碼技術(shù)本身無法解釋最近發(fā)布的推理模型所表現(xiàn)出的一些更復(fù)雜的推理行為。

圖片

(來自 [5])

順便說一句,我們還可以將拒絕采樣的思想應(yīng)用于訓(xùn)練(即訓(xùn)練與測試時間拒絕采樣)。為此,我們只需:

  • 采樣幾個輸出或軌跡。
  • 使用獎勵模型(或其他評分機制)選擇最佳輸出。
  • 使用這些輸出進(jìn)行訓(xùn)練。

在實踐中,這種方法很常用;例如,LLaMA 模型在應(yīng)用 RLHF 之前,會在其后訓(xùn)練過程中執(zhí)行幾輪訓(xùn)練時間拒絕采樣。拒絕采樣在實踐中非常有效,與基于 PPO 的 RLHF 相比,它更容易實現(xiàn)和擴展。

自我優(yōu)化。除了并行解碼之外,還可以考慮為解碼采用批評或自我優(yōu)化策略。首先,LLM 生成初始響應(yīng)。然后,為響應(yīng)提供反饋(來自 LLM 或某些外部來源),LLM 可以根據(jù)反饋修改其響應(yīng)。此循環(huán)可以重復(fù)任意次數(shù);參見下圖。

圖片

(來自 [15])

目前已有不同的優(yōu)化方法,但它們可以大致分為兩類:

  • 外部式:反饋來自某些外部驗證器或模塊。
  • 內(nèi)部式:LLM 為其自身生成提供反饋。

優(yōu)化的結(jié)果和實際效果有些復(fù)雜。有許多使用外部反饋(例如來自驗證器 [16] 或代碼解釋器 [17])來優(yōu)化 LLM 輸出的成功案例。內(nèi)部優(yōu)化是否有效在很大程度上取決于 LLM 提供的反饋質(zhì)量。內(nèi)部優(yōu)化可以很好地完成簡單任務(wù) [18]。然而,這種方法很難泛化到更復(fù)雜的任務(wù)(例如數(shù)學(xué))[19]。

開放式推理模型:DeepSeek-R1 等

到目前為止,我們已經(jīng)了解了 LLM 獲得推理能力的基本概念。然而,我們所了解的所有模型都是封閉的 —— 我們無法知道這些模型究竟是如何創(chuàng)建的。幸運的是,最近發(fā)布了幾個開放式推理模型。這些模型中最引人注目的是 DeepSeek-R1 [1]。除了與 OpenAI o1 相媲美的性能外,該模型還附帶了一份完整的技術(shù)報告,其中提供了足夠的細(xì)節(jié),因此完全揭開了創(chuàng)建強大推理模型所需過程的神秘面紗。

圖片

(來自 [1])

DeepSeek-R1 背后的核心思想與我們迄今為止學(xué)到的知識非常吻合。該模型在可驗證任務(wù)上使用強化學(xué)習(xí)進(jìn)行訓(xùn)練,它學(xué)習(xí)利用長思維鏈來解決復(fù)雜的推理問題。有趣的是,強化學(xué)習(xí)訓(xùn)練過程是該模型強大推理能力的關(guān)鍵因素。該模型的多個版本 ——DeepSeek-R1-Zero 和 DeepSeek-R1—— 都已發(fā)布,具有相當(dāng)?shù)耐评砟芰?。正如我們將看到的,它是這類模型中第一個完全放棄了任何監(jiān)督訓(xùn)練的模型,表明復(fù)雜的推理能力可自然地從使用強化學(xué)習(xí)的大規(guī)模訓(xùn)練中涌現(xiàn)。

「DeepSeek-R1-Zero 是一種通過大規(guī)模強化學(xué)習(xí)(RL)訓(xùn)練的模型,沒有監(jiān)督微調(diào)(SFT)作為初步步驟,它展示了非凡的推理能力。通過強化學(xué)習(xí),DeepSeek-R1-Zero 自然地涌現(xiàn)出了許多強大而有趣的推理行為。」 - 來自 [1]

DeepSeek-v3。DeepSeek-R1-Zero 和 DeepSeek-R1 都始于一個強大的基礎(chǔ)模型:DeepSeek-v3 [2]。除了具有開放權(quán)重和詳細(xì)的技術(shù)報告 [2] 之外,該模型還超越了之前的開放 LLM 的性能,甚至與封閉模型的質(zhì)量相當(dāng)。

圖片

(來自 [2])

DeepSeek-v3 是一個 6710 億參數(shù)的混合專家(MoE)模型。如果你不熟悉 MoE,可以參看博主的這篇長文解析,其中解釋了 MoE 概念并提供了幾個實例,包括 DeepSeek-v3:https://cameronrwolfe.substack.com/p/moe-llms

為了提高推理和訓(xùn)練效率,DeepSeek-v3 做出了以下設(shè)計選擇:

  • 使用多頭隱注意力(MLA)。
  • 采用優(yōu)化的 MoE 結(jié)構(gòu)(例如,細(xì)粒度和共享專家)。
  • 在預(yù)訓(xùn)練期間使用多 token 預(yù)測目標(biāo)。
  • 放棄通常用于訓(xùn)練 MoE 模型的負(fù)載平衡損失。
  • 通過采用 [2] 中提出的新型量化訓(xùn)練策略,在整個訓(xùn)練過程中將精度降低到 FP8。

出于這些原因,與其他模型相比,DeepSeek-v3 的訓(xùn)練非常經(jīng)濟:該模型在性能和效率方面都表現(xiàn)出色。該模型的幾個先前版本已經(jīng)發(fā)布,這些版本啟發(fā)了 DeepSeek-v3 做出的一些設(shè)計決策,例如 DeepSeek-v2 和 DeepSeek-v2.5。

DeepSeek-R1-Zero

DeepSeek 提出的第一個推理模型是 DeepSeek-R1-Zero。該模型采用了一種有趣的訓(xùn)練策略,即教模型純粹通過大規(guī)模強化學(xué)習(xí)進(jìn)行推理,而無需任何 SFT。該模型會自然探索并學(xué)習(xí)利用長思維鏈通過強化學(xué)習(xí)解決復(fù)雜的推理問題。DeepSeek-R1-Zero 是第一個公開的研究成果,表明無需監(jiān)督訓(xùn)練即可開發(fā)推理能力。

圖片

(來自 [22])

使用 GRPO 的強化學(xué)習(xí)。DeepSeek-R1-Zero 的訓(xùn)練從 DeepSeek-v3 [2] 基礎(chǔ)模型開始。他們是直接通過強化學(xué)習(xí)微調(diào)這個基礎(chǔ)模型。特別是,[1] 中的作者選擇了上圖中所示的組相對策略優(yōu)化(GRPO)[3] 作為他們的強化學(xué)習(xí)算法。選擇用于 LLM 訓(xùn)練的強化學(xué)習(xí)算法是一個開放且活躍的研究課題。傳統(tǒng)上,研究人員使用 PPO 來訓(xùn)練 LLM,但最近有一種趨勢是采用更簡單的強化學(xué)習(xí)算法(例如 REINFORCE 或 GRPO)進(jìn)行 LLM 訓(xùn)練。[1] 中給出的選擇 GRPO 的主要原因是:

  • 降低強化學(xué)習(xí)訓(xùn)練成本。
  • 不再需要批評模型,該模型(通常)與策略模型(即 LLM 本身)大小相同。

定義獎勵。與大多數(shù)使用 LLM 的傳統(tǒng)強化學(xué)習(xí)工作不同,DeepSeek-R1-Zero 不使用神經(jīng)獎勵模型(即基于 LLM 的獎勵模型,這些模型通過偏好數(shù)據(jù)進(jìn)行訓(xùn)練)。相反,作者使用了基于規(guī)則的獎勵系統(tǒng),它 i)避免獎勵 hacking,ii)節(jié)省計算成本,iii)更易于實現(xiàn)。特別要指出,目前使用的獎勵有兩種:

  • 準(zhǔn)確度獎勵:評估模型的響應(yīng)是否正確。
  • 格式獎勵:強制模型以一定格式輸出。

DeepSeek-R1-Zero 完全是在可自動驗證的任務(wù)上進(jìn)行訓(xùn)練的,例如數(shù)學(xué)和編程問題。對于具有確定性結(jié)果的數(shù)學(xué)問題,該模型可以以指定的格式提供答案,使我們能夠通過基本的字符串匹配進(jìn)行驗證。同樣,可以通過在預(yù)定義的測試用例上執(zhí)行 LLM 在沙箱中生成的代碼來驗證編程問題。

如前所述,當(dāng)模型的輸出格式正確時,格式獎勵會提供積極的訓(xùn)練信號。[1] 中使用的格式只是將模型的長思維鏈(或思考 / 推理過程)放在兩個特殊 token 之間:<think> 和 </think>。然后,在推理過程完成后,模型會在 <answer> 和 </answer> 標(biāo)簽之間單獨生成答案;如下所示。

圖片

(來自 [1])

通過強化學(xué)習(xí)進(jìn)行學(xué)習(xí)。盡管沒有使用 SFT,但 DeepSeek-R1-Zero 在整個強化學(xué)習(xí)訓(xùn)練過程中的推理能力都有了明顯的進(jìn)步。隨著訓(xùn)練的進(jìn)行,模型在 AIME 2024 上的表現(xiàn)如下圖所示。

圖片

(來自 [1])

可以看到,模型的性能逐漸提高,最終達(dá)到與 o1-preview 相當(dāng)?shù)乃?。?xùn)練完成后,DeepSeek-R1-Zero 在 AIME 2024 上的表現(xiàn)從最初的 15.6% 提高到了 71.0%(或在使用 16 票多數(shù)投票時為 86.7%)!這樣的結(jié)果與我們在封閉式推理模型中看到的性能趨勢是一致的 ——DeepSeek-R1-Zero 在強化學(xué)習(xí)訓(xùn)練后實現(xiàn)了令人印象深刻的性能,并且可以通過并行解碼策略進(jìn)一步提高其性能。

下表給出了 DeepSeek-R1-Zero 和 o1 模型之間的完整性能比較。DeepSeek-R1-Zero 在大多數(shù)情況下與 o1-mini 的性能相當(dāng)或超過 o1-mini,并且在幾個任務(wù)上的表現(xiàn)與 o1-preview 相當(dāng)。然而,OpenAI 的推理模型在編程領(lǐng)域表現(xiàn)更好 ——DeepSeek-R1-Zero 顯然是一個較弱的編程模型。我們很快就會看到,這個問題在 DeepSeek-R1(后續(xù)模型)中得到了解決。

圖片

(來自 [1])

發(fā)生了什么?顯然,DeepSeek-R1-Zero 從 [1] 中介紹的強化學(xué)習(xí)訓(xùn)練過程中獲得了出色的推理能力。然而,模型學(xué)習(xí)過程的動態(tài)也相當(dāng)明顯!因為沒有進(jìn)行 SFT 式訓(xùn)練,所以可以在整個強化學(xué)習(xí)訓(xùn)練過程中密切監(jiān)控模型推理策略的進(jìn)展。如下所示,DeepSeek-R1-Zero 學(xué)會了利用更多的「思考時間」,即生成越來越長的思維鏈,從而可以隨著訓(xùn)練的進(jìn)行改進(jìn)其推理過程。該模型自然學(xué)會了利用更多的測試時間計算來解決更難的問題!

圖片

(來自 [1])

[1] 的作者還觀察到在強化學(xué)習(xí)訓(xùn)練過程中自然涌現(xiàn)的幾種有趣趨勢。例如,該模型通過重新審視和評估其推理過程的先前組成部分,發(fā)展出反思自身解決方案的能力。同樣,該模型在解決問題的過程中開始顯式地測試和探索替代解決方案或方法。這種行為不是現(xiàn)實編程在模型中的,而是在強化學(xué)習(xí)訓(xùn)練過程中自然涌現(xiàn)的!

在最基本的層面上,[1] 中構(gòu)建的強化學(xué)習(xí)環(huán)境允許模型探索不同的策略來得出正確的(由驗證確定的)最終解答。在探索過程中,模型做到以下兩點就能獲得獎勵:

  • 使用了正確的推理模板或結(jié)構(gòu)。
  • 給出的最終解答是正確的。

僅憑這些獎勵,模型就能學(xué)會如何解決復(fù)雜的推理問題。我們不需要顯式地教模型如何分解問題、尋找解決方案、執(zhí)行回溯或評估自己的思路。相反,我們只需在訓(xùn)練過程中為模型提供正確的激勵(或獎勵)。然后,LLM 可以通過基于強化學(xué)習(xí)的「自我進(jìn)化」過程自主學(xué)習(xí)解決問題所需的行為。

DeepSeek-R1

DeepSeek-R1-Zero 表明,LLM 可以使用沒有 SFT 的純強化學(xué)習(xí)獲得出色的推理能力,但這個模型有一些小錯誤。例如,它的可讀性很差,并且它會錯誤地將語言混合在一起。簡而言之,DeepSeek-R1-Zero 非常擅長推理,但它缺乏一些已良好對齊的 LLM 的理想屬性。為了解決這些問題,[1] 中的作者提出了一種新的多階段訓(xùn)練過程,將一些「冷啟動」 SFT 數(shù)據(jù)與其他一些技巧整合到了訓(xùn)練中。此訓(xùn)練流程得到的 DeepSeek-R1 是一款既已對齊又能進(jìn)行復(fù)雜推理的 LLM。

與 DeepSeek-R1-Zero 類似,DeepSeek-R1 的基礎(chǔ)也是 DeepSeek-v3。然后,DeepSeek-R1 經(jīng)歷四個階段的訓(xùn)練,包括兩個 SFT 階段和兩個強化學(xué)習(xí)階段。SFT 階段的目的是在每個強化學(xué)習(xí)階段為探索提供更好的起點。該訓(xùn)練流程是 [1] 的主要貢獻(xiàn)之一 :它提供了一種有效的方法,可將推理式訓(xùn)練與 LLM 的標(biāo)準(zhǔn)后訓(xùn)練方法相結(jié)合。下面更深入地介紹下 DeepSeek-R1 使用的訓(xùn)練方法的每個階段。

第一階段:冷啟動(或面向推理的 SFT)。在進(jìn)行強化學(xué)習(xí)訓(xùn)練之前,R1 通過 SFT 在一小組長思維鏈?zhǔn)纠龜?shù)據(jù)集上進(jìn)行訓(xùn)練,[1] 中將其稱為「冷啟動」數(shù)據(jù)。我們可以使用幾種不同的方法來收集這些冷啟動數(shù)據(jù):

  • 通過提示詞調(diào)用一個模型(例如 DeepSeek-v3)生成長思維鏈數(shù)據(jù),可以使用少量示例,也可以指示模型生成詳細(xì)答案并進(jìn)行反思和驗證。
  • 使用 R1-Zero 模型生成大量長思維鏈輸出,然后讓人類進(jìn)行后處理并選擇模型的最佳輸出。

[1] 結(jié)合了這些方法,收集了「數(shù)千個冷啟動數(shù)據(jù)」?;谶@些數(shù)據(jù)再使用 SFT 對 DeepSeek-V3 直接進(jìn)行微調(diào)。因為這里使用的是長思維鏈數(shù)據(jù),所以這是一個面向推理的微調(diào)過程。從這個冷啟動數(shù)據(jù)中,模型可以學(xué)習(xí)一個可行的(初始)模板來解決推理問題。

用于面向推理的 SFT 的數(shù)據(jù)可將人類先驗引入 DeepSeek-R1 的訓(xùn)練過程。我們可以顯式地選擇模型在此階段學(xué)習(xí)的數(shù)據(jù)風(fēng)格和模式。例如,[1] 中提到,他們將這些數(shù)據(jù)結(jié)構(gòu)化為包含每個長思維鏈的摘要,從而教會模型在提供最終答案之前總結(jié)其整個推理過程。這些數(shù)據(jù)是強化學(xué)習(xí)訓(xùn)練過程的種子 —— 模型通過匹配 SFT 訓(xùn)練數(shù)據(jù)的風(fēng)格開始自我探索。

第二階段:面向推理的強化學(xué)習(xí)。在 SFT 之后,就是重復(fù) R1-Zero 提出的大規(guī)模強化學(xué)習(xí)訓(xùn)練過程了,這是為了增強底層模型處理推理密集型任務(wù)的能力。DeepSeek-R1 的唯一變化是增加了語言一致性獎勵,其在計算中是作為模型輸出中采用所需目標(biāo)語言編寫的部分。[1] 中發(fā)現(xiàn)這種語言一致性獎勵會略微降低模型的推理能力。但是,語言一致性可提高最終模型與人類偏好的整體對齊程度 —— 模型的輸出更加流暢和可讀。

第三階段:拒絕采樣。在面向推理的強化學(xué)習(xí)收斂之后,再使用最終模型來收集大量且多樣化的 SFT 數(shù)據(jù)集。然而,與最初的冷啟動 SFT 階段不同,這里收集的不僅僅是面向推理的數(shù)據(jù)。也就是說是用通用數(shù)據(jù)擴充推理數(shù)據(jù),以便模型可以從更廣泛的問題和領(lǐng)域中學(xué)習(xí)。

為了收集更多的推理數(shù)據(jù),DeepSeek-R1 團隊:

  • 整編一組多樣化的基于推理的提示詞。
  • 使用第二階段的模型生成候選軌跡。
  • 執(zhí)行拒絕采樣,即根據(jù)每個軌跡的質(zhì)量和正確性過濾并選擇最佳軌跡。

這與前文介紹的訓(xùn)練時間拒絕采樣過程相同!有趣的是,在這個階段,不僅僅是依賴基于規(guī)則的技術(shù)來進(jìn)行驗證。還會通過使用 DeepSeek-v3 作為生成獎勵模型或弱驗證器來整合來自不可驗證域的額外數(shù)據(jù)。在應(yīng)用啟發(fā)式過濾(例如,刪除帶有多語言混合或長段落的輸出)后,他們最終得到了一個包含 60 萬個推理軌跡的集合。

此階段的 SFT 數(shù)據(jù)集包含大量非推理數(shù)據(jù)(例如,寫作或翻譯示例)。這些數(shù)據(jù)來自 DeepSeek-v3 所用的相同的訓(xùn)練后數(shù)據(jù)集。但是,通過要求 DeepSeek-v3 生成長思維鏈來解釋復(fù)雜查詢的輸出,這些數(shù)據(jù)得到了增強 —— 不過,更簡單的查詢沒有任何思維鏈。最終,他們總共收集了 20 萬個非推理示例樣本,加起來得到了一個包含 80 萬個樣本的 SFT 數(shù)據(jù)集。

第四階段:通用 RLHF。DeepSeek-R1 最后訓(xùn)練階段的目標(biāo)是使模型與人類偏好對齊,同時繼續(xù)磨練其推理能力。與前一階段類似,這里會使用基于推理的數(shù)據(jù)和通用數(shù)據(jù)的組合來訓(xùn)練模型。具體來說,訓(xùn)練的方法是使用強化學(xué)習(xí)并針對每種類型的數(shù)據(jù)使用不同的獎勵組合:

  • 基于規(guī)則的獎勵(與 R1-Zero 相同),用于基于推理的問題。
  • 針對一般數(shù)據(jù)使用神經(jīng)獎勵模型 —— 使用人類偏好對進(jìn)行訓(xùn)練,正如 RLHF 一樣。

DeepSeek-R1 經(jīng)過調(diào)整,在通用數(shù)據(jù)上更有幫助且無害。這是 LLM 研究中使用的兩個非常常用的對齊標(biāo)準(zhǔn)。每個標(biāo)準(zhǔn)都使用單獨的神經(jīng)獎勵模型進(jìn)行建模,該模型通過人類偏好的(監(jiān)督)數(shù)據(jù)集進(jìn)行訓(xùn)練。有用性獎勵僅針對模型的最終答案進(jìn)行衡量(即排除長思維鏈),而無害獎勵則考慮模型的整個輸出軌跡。通過結(jié)合規(guī)則和基于偏好的獎勵,DeepSeek-R1 可以與人類偏好對齊,同時保持強大的推理性能。

圖片

(來自 [1])

它的表現(xiàn)如何?如上所示,R1 在大多數(shù)推理任務(wù)上的表現(xiàn)與 o1 相當(dāng)甚至超過 o1。與 R1-Zero 不同,R1 還具有相當(dāng)強的編程能力。在通用任務(wù)上,由于其混合訓(xùn)練管道,R1 繼續(xù)表現(xiàn)良好??偟膩碚f,R1 是一個非常強大的模型,似乎與 OpenAI 的 o1 不相上下,并且可以高精度地解決各種任務(wù)(包括傳統(tǒng)任務(wù)和推理導(dǎo)向任務(wù))。

關(guān)于這個模型(和其他推理模型)的一個有趣的觀察是,與標(biāo)準(zhǔn) LLM 相比,它在指令遵循基準(zhǔn)(例如 IF-Eval)上表現(xiàn)不佳。目前,推理模型在遵循指令方面似乎比標(biāo)準(zhǔn) LLM 更差。在未來,我個人認(rèn)為這種趨勢可能會逆轉(zhuǎn)。理論上,推理模型應(yīng)該能夠利用它們的思維過程來更好地解釋和遵循人類用戶提供的提示詞。例如,審議對齊(deliberative alignment)便采用了類似思想的方法。

SFT 是必要的嗎?R1-Zero 展現(xiàn)了在沒有 SFT 的情況下訓(xùn)練出強大推理模型的能力,而完整的 R1 模型使用多個 SFT 階段來獲得更強大的最終模型。因此,我們可能會開始懷疑:我們是否應(yīng)該使用 SFT?

圖片

對推理模型來說,SFT 是否有必要?

對于標(biāo)準(zhǔn) LLM,SFT 為 RLHF 提供了高質(zhì)量的起點。如果我們將 RLHF 直接應(yīng)用于基礎(chǔ)模型,學(xué)習(xí)過程的效率就會大大降低。SFT 的數(shù)據(jù)要么是合成的,要么是人類手動創(chuàng)建的。通常,收集 SFT 的數(shù)據(jù)是昂貴的(無論是在時間還是金錢方面)—— 我們必須為 LLM 從頭開始手動編寫一個好的響應(yīng)!

由于它們的思維鏈較長,為推理模型收集此類 SFT 數(shù)據(jù)更加困難。要求人類手動創(chuàng)建長思維鏈數(shù)據(jù)將耗時且昂貴!我們唯一的選擇是合成這些數(shù)據(jù),但是:

  • 可能很難使用模型生成這種特定風(fēng)格的輸出。
  • 很難正確驗證這種長輸出。

考慮到為推理模型收集 SFT 數(shù)據(jù)的額外復(fù)雜性,[1] 中的作者首先嘗試了完全避開 SFT!從這些實驗中,我們看到推理能力自然地從純強化學(xué)習(xí)中涌現(xiàn) —— 這是一個令人難以置信的發(fā)現(xiàn)!然而,由此產(chǎn)生的模型有幾個缺點(例如混雜使用多種語言)。

而當(dāng)在強化學(xué)習(xí)之前執(zhí)行一些 SFT 訓(xùn)練(即「冷啟動」)時,可為強化學(xué)習(xí)提供更好的先驗,這 i)可以消除強化學(xué)習(xí)訓(xùn)練初始階段的不穩(wěn)定性,ii)能加快訓(xùn)練速度,iii)能提高模型質(zhì)量。因此,SFT 并非完全必要,但如有數(shù)據(jù),它仍會很有用!

蒸餾模型

圖片

知識蒸餾過程圖示

除了 DeepSeek-R1,DeepSeek 還發(fā)布了一系列基于 R1 蒸餾得到的密集模型。人們早已發(fā)現(xiàn),蒸餾過程可以顯著增強更小、更高效的模型的推理能力。完整版 DeepSeek-R1 是有著 6710 億參數(shù)的混合專家模型,非常大,因此這些蒸餾模型在實踐中非常有用 —— 它們的性能與 R1 相當(dāng),但成本更低且更易于使用。此外,這些蒸餾模型的發(fā)布與封閉推理模型(例如 o1-mini 和 o3-mini)的最新趨勢一致。

圖片

(來自 [1])

蒸餾 R1。為了創(chuàng)建這些模型,他們首先選擇了幾種不同大小的 Qwen-2.5 [20] 和 LLaMA-3 [21] 模型。然后,通過 SFT 使用在 DeepSeek-R1 訓(xùn)練流程第三階段整編的 80 萬個監(jiān)督訓(xùn)練樣本對這些基礎(chǔ)模型進(jìn)行訓(xùn)練 —— 就這么簡單!

這是一個簡單的知識蒸餾流程,但結(jié)果卻非常驚艷。如上所示,經(jīng)過蒸餾的 Qwen2.5-14B 模型的表現(xiàn)優(yōu)于 QwQ-32B-Preview,后者是 R1 發(fā)布之前最好的開放式推理模型。此外,即使是最小的蒸餾模型也比未針對推理進(jìn)行優(yōu)化的標(biāo)準(zhǔn)封閉式 LLM 表現(xiàn)更好(例如 GPT-4o),而 320 億和 700 億參數(shù)的蒸餾模型在大多數(shù)基準(zhǔn)測試中的性能都超過了 o1-mini。

蒸餾與強化學(xué)習(xí)。雖然我們在上面的討論中看到蒸餾是有效的,但我們可能想知道:如果將 DeepSeek-R1 使用的大規(guī)模強化學(xué)習(xí)訓(xùn)練過程直接應(yīng)用于這些較小的模型,那么能獲得更好的結(jié)果嗎?

有趣的是,[1] 中提到,使用上述蒸餾方法基于 R1 蒸餾 Qwen2.5-32B 基礎(chǔ)模型比通過大規(guī)模強化學(xué)習(xí)直接訓(xùn)練該模型表現(xiàn)更好,如下所示。

圖片

(來自 [1])

換句話說,大型模型發(fā)現(xiàn)的推理模式對于提高這些較小、密集模型的推理能力至關(guān)重要。但是,[1] 中的作者確實提出了以下補充觀點:

  • 通過增加強化學(xué)習(xí)訓(xùn)練,蒸餾模型的性能可能得到進(jìn)一步提升。
  • 「超越智能的邊界」,即創(chuàng)建超過 DeepSeek-R1 等模型性能的新推理模型,仍然需要強大的基礎(chǔ)模型和大規(guī)模的強化學(xué)習(xí)訓(xùn)練。

其他蒸餾推理模型。鑒于通過蒸餾訓(xùn)練高質(zhì)量推理模型很簡單,研究界在 R1 提出后發(fā)布了各種各樣的推理模型。其中一些最吸引人的版本是:

當(dāng)然,還不止這些!當(dāng)前推理模型發(fā)布的步伐讓人想起了 LLM 研究的后 LLaMA 時代。在發(fā)布強大的開放基礎(chǔ)模型(即 LLaMA)之后,我們看到了基于該模型的各種模型變體(例如,Alpaca、Vicuna、Koala 等等)?,F(xiàn)在,我們可以使用強大的開放推理模型,因為我們看到了非常相似的趨勢!該領(lǐng)域的研究非常有趣,值得單獨寫一篇文章。敬請期待!

主要的新趨勢

我們現(xiàn)在已經(jīng)了解了各種推理模型,從 o1 或 o3 等封閉模型開始,到 DeepSeek-R1 中對這些模型的完整復(fù)現(xiàn)。隨著我們對這項研究的了解,開始出現(xiàn)了一些共同的趨勢。這些趨勢對推理模型和標(biāo)準(zhǔn) LLM 的研究做出了一些重要區(qū)分。羅列如下:

長思維鏈(和推理時間擴展)。推理模型和標(biāo)準(zhǔn) LLM 之間的關(guān)鍵區(qū)別在于它們的輸出結(jié)構(gòu)。推理模型不會直接生成最終答案(帶有可選的簡明解釋),而是生成一個較長的思維鏈,其詳細(xì)描述了模型的推理過程。這個較長的思維鏈長度不一,從而在推理時可實現(xiàn)可控的計算成本:較長的思維鏈 = 更多的 token = 更多的計算。這樣,在推理時使用更多的計算(生成較長的思維鏈)已成為一種工具,可讓用戶動態(tài)調(diào)整模型的推理能力。

通過強化學(xué)習(xí)進(jìn)行自我進(jìn)化。顯然,LLM 使用較長的思維鏈執(zhí)行復(fù)雜推理策略的能力是個新方向并且激動人心。從最近的研究中,這些特殊能力發(fā)展的關(guān)鍵因素是大規(guī)模強化學(xué)習(xí)訓(xùn)練。我們在 [1] 中看到,如果模型得到正確的激勵,這種推理能力就會在強化學(xué)習(xí)期間自然涌現(xiàn)出來 —— 通常是通過確定性和可靠的基于規(guī)則的獎勵。此外,我們可以通過使用更多的計算進(jìn)行強化學(xué)習(xí)訓(xùn)練來進(jìn)一步提高模型的推理能力 —— 這是我們可以利用的另一個 Scaling Law!

使用更少的監(jiān)督。與標(biāo)準(zhǔn) LLM 相比,推理模型對人類監(jiān)督的依賴程度較低。特別是,強化學(xué)習(xí)訓(xùn)練期間的獎勵主要來自基于規(guī)則的系統(tǒng),而不是依賴于人類的偏好。當(dāng)然,推理模型仍然有幾個領(lǐng)域依賴于人類的監(jiān)督;例如,基礎(chǔ)模型使用人類整理的數(shù)據(jù)進(jìn)行訓(xùn)練,驗證依賴于人類提供的 ground truth 標(biāo)簽。然而,像 R1(尤其是 R1-Zero)這樣的推理模型仍然在大力發(fā)展,證明推理能力可以自主發(fā)展起來。

蒸餾是有效的。我們可以基于強大的大型推理模型,使用簡單的策略將這些模型的能力蒸餾給更小、更密集的模型!這一發(fā)現(xiàn)導(dǎo)致了該領(lǐng)域研究的爆炸式增長,我們很可能會在不久的將來看到更多高效和蒸餾的推理模型發(fā)布。該領(lǐng)域的一個關(guān)鍵問題是較小的模型能否泛化,還是說難以完全匹敵其教師模型的廣度。

需要解決的新問題。最重要的是,推理模型的出現(xiàn)也帶來了各種有趣的新問題。我們還需解決的問題有:

  • 如何為長思維鏈實現(xiàn)安全訓(xùn)練?
  • 通用任務(wù)能力 / 推理能力之間的最佳平衡是什么?
  • SFT 在訓(xùn)練推理模型中的最佳作用是什么?
  • 如何最大限度地減少長思維鏈中的「過度思考」?
  • 如何實現(xiàn)推理模型的高效托管?

正如本文開頭所述,推理模型是一種真正新型的 LLM,它將迫使我們重新思考現(xiàn)有的框架。多年來一直使用的技術(shù)(例如,少樣本提示)對于這些新模型來說已經(jīng)過時了。LLM 研究領(lǐng)域正在再次自我重塑。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-02-21 10:34:49

2022-07-19 16:03:14

KubernetesLinux

2022-09-06 08:02:40

死鎖順序鎖輪詢鎖

2025-02-18 09:00:00

2025-02-12 14:09:31

DeepSeekChatGPTAPI

2022-09-14 09:01:55

shell可視化

2022-07-15 16:31:49

Postman測試

2020-07-09 07:54:35

ThreadPoolE線程池

2025-02-13 08:51:23

DeepSeek大模型

2025-02-08 14:03:25

2025-03-06 17:29:21

2025-04-22 09:12:00

AI模型數(shù)據(jù)

2021-10-18 11:58:56

負(fù)載均衡虛擬機

2025-03-06 10:14:39

2025-02-17 08:43:00

模型推理訓(xùn)練

2024-09-24 11:01:03

2025-03-05 03:00:00

DeepSeek大模型調(diào)優(yōu)

2025-02-18 08:15:03

2025-02-08 11:44:03

點贊
收藏

51CTO技術(shù)棧公眾號