Meta開發(fā)System 2蒸餾技術(shù),Llama 2對話模型任務(wù)準(zhǔn)確率接近100%
研究者表示,如果 Sytem 2 蒸餾可以成為未來持續(xù)學(xué)習(xí) AI 系統(tǒng)的重要特征,則可以進一步提升 System 2 表現(xiàn)不那么好的推理任務(wù)的性能。
談到大語言模型(LLM)的策略,一般來說有兩種,一種是即時的 System 1(快速反應(yīng)),另一種是 System 2(慢速思考)。
其中 System 2 推理傾向于深思熟慮的思維,生成中間思維允許模型(或人類)進行推理和規(guī)劃,以便成功完成任務(wù)或響應(yīng)指令。在 System 2 推理中,需要付出努力的心理活動,尤其是在 System 1(更自動化思維)可能出錯的情況下。
因此,System 1 被定義為 Transformer 的應(yīng)用,可以根據(jù)輸入直接生成響應(yīng),而無需生成中間 token。Sytem 2 被定義為生成中間 token 的任何方法,包括執(zhí)行搜索或多次提示然后最終生成響應(yīng)的方法。
業(yè)界已經(jīng)提出了一系列相關(guān)的 System 2 技術(shù),包括思維鏈、思維樹、思維圖、分支解決合并、System 2 Attention、Rephrase and Respond (RaR) 等。得益于這種明確的推理,許多方法都顯示出更準(zhǔn)確的結(jié)果, 但這樣做通常會帶來更高的推理成本和響應(yīng)延遲。因此,許多此類方法未在生產(chǎn)系統(tǒng)中使用,而大多使用了 System 1。
對于人類來說, 學(xué)習(xí)將技能從深思熟慮(System 2)轉(zhuǎn)移到自動(System 1)的過程在心理學(xué)中被稱為自動性,以及程序記憶的使用。例如,第一次開車上班時,人們通常會花費有意識的努力來計劃和做出到達目的地的決定。而在駕駛員重復(fù)這條路線后,駕駛過程就會「編譯」到潛意識中。同樣,網(wǎng)球等運動可以成為「第二天性」。
在本文中,來自 Meta FAIR 的研究者探索了一種類似的 AI 模型方法。該方法在給定一組未標(biāo)記示例的情況下以無監(jiān)督的方式執(zhí)行編譯,被稱為 System 2 蒸餾。對于每個示例,他們應(yīng)用給定的 System 2 方法,然后以無監(jiān)督的方式測量預(yù)測的質(zhì)量。
例如對于具有唯一答案的任務(wù),研究者應(yīng)用自洽性(self-consistency)并多次進行采樣。對于 System 2 足夠一致的示例,他們假設(shè)應(yīng)該蒸餾此結(jié)果,并將其添加到蒸餾池中。然后對 System 1 進行微調(diào),以匹配 System 2 方法對收集的示例池的預(yù)測,但不生成中間步驟。下圖 1 說明了將 System 2 蒸餾到 System 1 的整體過程。
研究者對 4 種不同的 System 2 LLM 方法和 5 種不同的任務(wù)進行了實驗。結(jié)果發(fā)現(xiàn),本文方法可以在各種設(shè)置中將 System 2 推理蒸餾回 System 1 中,有時甚至比 System 2 教師的結(jié)果更好。此外,這些預(yù)測現(xiàn)在只需花費計算成本的一小部分即可產(chǎn)生。
例如,他們發(fā)現(xiàn)成功的蒸餾適用于處理有偏見的意見或不相關(guān)信息的任務(wù)(System 2 Attention)、澄清和改進某些推理任務(wù)中的響應(yīng)(RaR)以及 LLM 的細粒度評估(分支 - 解決 - 合并)。
不過,并非所有的任務(wù)都可以蒸餾到 System 1 中,尤其是需要思維鏈的復(fù)雜數(shù)學(xué)推理任務(wù)。這也反映在人類身上,如果沒有深思熟慮的 System 2 推理,人類就無法執(zhí)行某些任務(wù)。
論文地址:https://arxiv.org/pdf/2407.06023v2
將 System 2 蒸餾回 System 1
設(shè)置:System 1 和 System 2 模型
給定一個輸入 x,研究者考慮設(shè)置一個單一模型,在他們的例子中是一個大語言模型 (LLM),它能夠?qū)崿F(xiàn)兩種響應(yīng)模式:
- System 1:直接生成輸出 y。這類方法通過轉(zhuǎn)發(fā)(forwarding)底層自回歸神經(jīng)網(wǎng)絡(luò) (Transformer) 的各層來生成輸出標(biāo)記來完成。
- System 2。這類方法使用底層 Transformer 在生成最終響應(yīng) token 之前生成任何類型的中間輸出標(biāo)記 z,可能包括多次調(diào)用(提示)。
從形式上,研究者將 System 2 模型 S_II 視為一個函數(shù),它接受 LLM p_θ 和輸入 x,并且可以重復(fù)調(diào)用 LLM 以使用特定算法生成中間標(biāo)記 z,然后返回輸出 y:
System 2 方法可能涉及多個提示、分支、迭代和搜索,同時使用 LLM 生成中間結(jié)果以供進一步處理。相比之下,System 1 模型僅考慮原始輸入 x 并直接調(diào)用 LLM pθ 來生成輸出 y:
方法:System 2 蒸餾
本文方法的第一步是使用 System 2 模型對未標(biāo)記的輸入 X 生成響應(yīng):
然后,這些響應(yīng) y^i_S_II 可直接用作 System 2 蒸餾目標(biāo),以微調(diào) System 1 模型。但是,它們?nèi)菀资艿皆肼暤挠绊懀浩渲幸恍╉憫?yīng)可能是高質(zhì)量的,而另一些可能是低質(zhì)量或不正確的。對于涉及簡短響應(yīng)(通常具有唯一正確(但未知)的答案)的簡短問答和推理任務(wù),研究者考慮采用無監(jiān)督管理步驟來嘗試提高訓(xùn)練數(shù)據(jù)質(zhì)量。他們考慮了以下兩種依賴于自洽性標(biāo)準(zhǔn)的變體:
- 輸出的自洽性:對 S_II (x^i ; p_θ) 進行總共 N 次采樣,并接受多數(shù)投票響應(yīng);如果沒有多數(shù)投票獲勝者,則丟棄該示例。
- 輸入擾動下的自洽性:以輸出不變的方式擾動輸入 x^i,例如改變提示中多項選擇題的順序,并計算每次擾動的 S_II;如果輸出不一致,則丟棄該示例。
之后研究者得到了合成數(shù)據(jù)集 (X_S_II , Y_S_II),其中 X_S_II 是 X 的一個過濾子集,目標(biāo)是 Y_S_II。最后一步是使用這個蒸餾出來的訓(xùn)練集對參數(shù)為 p_θ 的 LLM 進行監(jiān)督微調(diào)。研究者通常從當(dāng)前狀態(tài) p_θ 初始化此模型,然后繼續(xù)使用新數(shù)據(jù)集進行訓(xùn)練。微調(diào)后,他們得到一個 LLM ,這是一個 System 1 模型,預(yù)計可提供與評估的 System 2 模型類似的輸出和性能提升。
實驗結(jié)果
訓(xùn)練和評估設(shè)置
研究者使用 Llama-2-70B-chat 作為所有實驗的基礎(chǔ)模型。他們需要一個具有足夠能力的基礎(chǔ)模型,使其能夠像 System 2 模型一樣高效運行,同時還具有可以微調(diào)的開放權(quán)重,因此做出了此選擇。
同時,研究者考慮了幾種 System 2 方法,包括 System 2 Attention、 RaR、分支解決合并(Branch-Solve-Merge)和思維鏈, 并重點關(guān)注每種方法都顯示出強大性能的任務(wù)。
對于 System 1,研究者使用指令調(diào)整后的基礎(chǔ)模型作為標(biāo)準(zhǔn)基線進行零樣本推理。他們報告每個任務(wù)的任務(wù)特定指標(biāo),以及「#Tokens」指標(biāo),后者衡量評估集上每個輸入生成的平均 token 數(shù)量。System 2 方法則包括中間 token 生成以及最終輸出 token 生成。
Rephrase and Respond 蒸餾
RaR 是一種 System 2 方法,它首先提示語言模型以進一步闡述的方式來復(fù)述原始問題,然后基于復(fù)述的問題生成響應(yīng),目的是提供更優(yōu)的輸出。
對于蒸餾數(shù)據(jù),研究者使用輸出的自洽性為 RaR 構(gòu)建 System 2 蒸餾數(shù)據(jù)集。對于每個輸入,他們對最后一個字母( last letter)任務(wù)進行了八次采樣迭代,并同樣對硬幣翻轉(zhuǎn)(coin flip)任務(wù)的每個階段進行八次采樣迭代,然后用多數(shù)投票來確定最終輸出。
首先來看最后一個字母連接(Last letter Concatenation)任務(wù)。此任務(wù)側(cè)重于符號推理,要求模型連接給定單詞的最后一個字母。整體結(jié)果如下表 1 所示。
基線 System 1 模型 (Llama-2-70B-chat) 的準(zhǔn)確率達到 30.0%,低于 System 2 的 1-Step 和 2-Step RaR 方法(分別為 39.5% 和 44.5%)。通過本文無監(jiān)督技術(shù)將 2-Step RaR 方法蒸餾回 System 1 Llama-2-70B-chat 模型,則實現(xiàn)了 98.0% 的驚人準(zhǔn)確率。
與零樣本聊天模型相比,模型可以有效地從這些訓(xùn)練數(shù)據(jù)中學(xué)習(xí)如何解決任務(wù)。RaR 的蒸餾有效地繼承了 System 2 和 System 1 的優(yōu)勢,既保留了 System 2 的準(zhǔn)確率優(yōu)勢,而其推理成本與 System 1 相當(dāng)。
再來看硬幣翻轉(zhuǎn)推理任務(wù)。這種符號推理任務(wù)經(jīng)常在研究中進行測試,它涉及確定硬幣的最終面(正面或反面),從已知的初始位置開始,經(jīng)過一系列用自然語言描述的翻轉(zhuǎn),例如「硬幣正面朝上」。
整體結(jié)果見上表 1。Llama-2-70B-chat(零樣板)在此任務(wù)上的成功率為 56.1%,而 1-Step 和 2-Step RaR 的成功率分別為 58.5% 和 77.2%。因此,使用 2-Step 方法獲得了巨大改進。通過本文無監(jiān)督技術(shù)將 2-Step RaR 蒸餾回 System 1 Llama-2-70B-chat 可以獲得 75.69% 的結(jié)果。
因此,蒸餾的 System 2 模型提供的性能與 System 2(2 Step RaR)相當(dāng),但不需要使用 2 個提示執(zhí)行 LLM 程序。
System 2 Attention 蒸餾
Weston 和 Sukhbaatar (2023) 提出了 System 2 Attention (S2A),這種方法有助于減少模型的推理陷阱,例如依賴輸入中的偏見信息或關(guān)注不相關(guān)的上下文。
研究者驗證了將 S2A 提煉到 System 1 中的可行性,特別是 SycophancyEval 問答任務(wù),該任務(wù)包含已知會損害 LLM 性能的輸入中的偏見信息。
結(jié)果如下表 2 所示,報告了 3 個隨機種子的平均準(zhǔn)確率。正如預(yù)期,基線(System1)LLM 在有偏見部分的準(zhǔn)確率較低,容易受到有偏見輸入的影響。S2A 顯著提高了有偏見輸入的性能。System 2 蒸餾表現(xiàn)出與 System 2 方法類似的強大性能。