GPT-5涌現(xiàn)能力可預(yù)測?UC伯克利僅使用當(dāng)前模型檢查點(diǎn)預(yù)測未來模型
LLM 規(guī)模擴(kuò)展的一個根本性挑戰(zhàn)是缺乏對涌現(xiàn)能力的理解。特別是,語言模型預(yù)訓(xùn)練損失是高度可預(yù)測的。然而,下游能力的可預(yù)測性要差得多,有時甚至?xí)霈F(xiàn)涌現(xiàn)跳躍(emergent jump),這使得預(yù)測未來模型的能力變得具有挑戰(zhàn)性。
最近,來自加州大學(xué)伯克利分校(UC 伯克利)的研究團(tuán)隊(duì)提出涌現(xiàn)預(yù)測的任務(wù):是否可以僅通過使用 GPT-N 模型的檢查點(diǎn)(即當(dāng)前模型的狀態(tài))來預(yù)測 GPT-N+1(未來模型)是否會出現(xiàn)涌現(xiàn)能力? 并在論文《Predicting Emergent Capabilities by Finetuning》中給出了答案。
- 論文標(biāo)題:Predicting Emergent Capabilities by Finetuning
- 論文地址:https://arxiv.org/pdf/2411.16035
值得注意的是,這篇論文的作者包括強(qiáng)化學(xué)習(xí)大牛 Sergey Levine。
該研究擬合了一個參數(shù)函數(shù) —— 涌現(xiàn)定律,模擬了涌現(xiàn)點(diǎn)如何隨數(shù)據(jù)量的變化而變化。
為了進(jìn)行驗(yàn)證,該研究使用四個標(biāo)準(zhǔn) NLP 基準(zhǔn) ——MMLU、GSM8K、CommonsenseQA 和 CoLA。通過僅使用小規(guī)模 LLM 來擬合涌現(xiàn)定律,該研究能夠準(zhǔn)確預(yù)測涌現(xiàn)點(diǎn)。
最后,該研究提出了兩個實(shí)際的涌現(xiàn)案例研究,表明該研究提出的涌現(xiàn)定律可用于預(yù)測更復(fù)雜的能力。
思維鏈提出者 Jason Wei 稱贊:「這是一篇非常聰明的論文,可以預(yù)測預(yù)訓(xùn)練模型的下游性能,非常有價(jià)值。因?yàn)榭梢允褂盟鼇眍A(yù)測和證明對下一個大模型訓(xùn)練運(yùn)行的資本投資的合理性。」
論文介紹
作者首先提出了涌現(xiàn)預(yù)測,并將涌現(xiàn)預(yù)測定義為僅使用涌現(xiàn)前的模型檢查點(diǎn),來識別發(fā)生涌現(xiàn)的擴(kuò)展點(diǎn)的問題。
簡單理解就是,對于給定的 LLM,其在特定任務(wù)上具有隨機(jī)少樣本準(zhǔn)確率,我們能否預(yù)測這個 LLM 在哪個擴(kuò)展點(diǎn)(例如,預(yù)訓(xùn)練損失)上性能將超越隨機(jī)表現(xiàn)?
帶著這一疑問,作者發(fā)現(xiàn)了這樣一個見解:在給定的任務(wù)上微調(diào) LLM, 可以將涌現(xiàn)發(fā)生的臨界點(diǎn)向著能力較低的模型移動 ,這意味著,通過微調(diào),模型在涌現(xiàn)能力出現(xiàn)的時間點(diǎn)可以提前,這對于理解模型擴(kuò)展和能力躍升的過程非常重要。微調(diào)所使用的數(shù)據(jù)量,會調(diào)節(jié)這種臨界點(diǎn)移動的幅度。
圖 3(左)繪制了每個模型在 GSM8K 和 MMLU 上的少樣本和微調(diào)性能與預(yù)訓(xùn)練損失的關(guān)系??梢钥吹剑⒄{(diào)后的模型遵循與少樣本設(shè)置類似的 ReLU 形狀。此外,在相同的預(yù)訓(xùn)練損失下,所有模型大小的轉(zhuǎn)變都是一致的,這表明預(yù)訓(xùn)練損失可以作為少樣本和微調(diào)設(shè)置中有效的獨(dú)立變量。
作者還發(fā)現(xiàn)出現(xiàn)涌現(xiàn)偏移受微調(diào)數(shù)據(jù)量的影響。圖 3(右)繪制了 3B 模型檢查點(diǎn)在完整數(shù)據(jù)子集上進(jìn)行微調(diào)后的性能。在 MMLU 和 GSM8K 上,隨著微調(diào)數(shù)據(jù)量的增加,涌現(xiàn)點(diǎn)進(jìn)一步向能力較弱的 LLM 偏移。因此,微調(diào)數(shù)據(jù)量可以調(diào)節(jié)涌現(xiàn)偏移。
為了將這一洞察付諸實(shí)踐,作者針對不同數(shù)量的數(shù)據(jù)對 LLM 進(jìn)行了微調(diào),并擬合了一個參數(shù)函數(shù)(即涌現(xiàn)定律),該函數(shù)模擬了涌現(xiàn)點(diǎn)如何隨數(shù)據(jù)量的變化而變化。
然后,根據(jù)這一發(fā)現(xiàn)可以推斷出在少樣本設(shè)置中關(guān)于涌現(xiàn)的預(yù)測。
作者利用四個標(biāo)準(zhǔn) NLP 基準(zhǔn)來驗(yàn)證涌現(xiàn)定律,結(jié)果發(fā)現(xiàn)涌現(xiàn)定律可以提前準(zhǔn)確預(yù)測涌現(xiàn)點(diǎn),最多可提前 4 倍 FLOP。
接下來作者進(jìn)行了這樣一個實(shí)驗(yàn),就預(yù)訓(xùn)練 FLOPS 而言,可以提前多久成功做出預(yù)測。結(jié)果發(fā)現(xiàn),可以提前預(yù)測涌現(xiàn)的程度在某種程度上取決于任務(wù)。
在 MMLU 和 GSM8K 上,可以分別提前最多 4.3 倍和 3.9 倍的 FLOPS 涌現(xiàn)出現(xiàn)。然而,在 CommonsenseQA 和 CoLA 上,分別只能提前預(yù)測 1.9 倍和 2.3 倍。
最后,作者還進(jìn)行了真實(shí)世界的案例研究:1)低成本評估預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量(左)。2)使用困難 APPS 編碼基準(zhǔn)預(yù)測更復(fù)雜的能力,更接近未來前沿模型的能力(右)。
感興趣的讀者可以閱讀論文原文,了解更多研究內(nèi)容。


2025-04-30 09:09:00




