自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-5涌現(xiàn)能力可預(yù)測?UC伯克利僅使用當(dāng)前模型檢查點(diǎn)預(yù)測未來模型

人工智能 新聞
思維鏈提出者 Jason Wei 稱贊:「這是一篇非常聰明的論文,可以預(yù)測預(yù)訓(xùn)練模型的下游性能,非常有價(jià)值。因?yàn)榭梢允褂盟鼇眍A(yù)測和證明對下一個大模型訓(xùn)練運(yùn)行的資本投資的合理性?!?/div>

LLM 規(guī)模擴(kuò)展的一個根本性挑戰(zhàn)是缺乏對涌現(xiàn)能力的理解。特別是,語言模型預(yù)訓(xùn)練損失是高度可預(yù)測的。然而,下游能力的可預(yù)測性要差得多,有時甚至?xí)霈F(xiàn)涌現(xiàn)跳躍(emergent jump),這使得預(yù)測未來模型的能力變得具有挑戰(zhàn)性。

最近,來自加州大學(xué)伯克利分校(UC 伯克利)的研究團(tuán)隊(duì)提出涌現(xiàn)預(yù)測的任務(wù):是否可以僅通過使用 GPT-N 模型的檢查點(diǎn)(即當(dāng)前模型的狀態(tài))來預(yù)測 GPT-N+1(未來模型)是否會出現(xiàn)涌現(xiàn)能力? 并在論文《Predicting Emergent Capabilities by Finetuning》中給出了答案。

圖片

  • 論文標(biāo)題:Predicting Emergent Capabilities by Finetuning
  • 論文地址:https://arxiv.org/pdf/2411.16035

值得注意的是,這篇論文的作者包括強(qiáng)化學(xué)習(xí)大牛 Sergey Levine。

該研究擬合了一個參數(shù)函數(shù) —— 涌現(xiàn)定律,模擬了涌現(xiàn)點(diǎn)如何隨數(shù)據(jù)量的變化而變化。

為了進(jìn)行驗(yàn)證,該研究使用四個標(biāo)準(zhǔn) NLP 基準(zhǔn) ——MMLU、GSM8K、CommonsenseQA 和 CoLA。通過僅使用小規(guī)模 LLM 來擬合涌現(xiàn)定律,該研究能夠準(zhǔn)確預(yù)測涌現(xiàn)點(diǎn)。

最后,該研究提出了兩個實(shí)際的涌現(xiàn)案例研究,表明該研究提出的涌現(xiàn)定律可用于預(yù)測更復(fù)雜的能力。

思維鏈提出者 Jason Wei 稱贊:「這是一篇非常聰明的論文,可以預(yù)測預(yù)訓(xùn)練模型的下游性能,非常有價(jià)值。因?yàn)榭梢允褂盟鼇眍A(yù)測和證明對下一個大模型訓(xùn)練運(yùn)行的資本投資的合理性。」

圖片

論文介紹

作者首先提出了涌現(xiàn)預(yù)測,并將涌現(xiàn)預(yù)測定義為僅使用涌現(xiàn)前的模型檢查點(diǎn),來識別發(fā)生涌現(xiàn)的擴(kuò)展點(diǎn)的問題。

簡單理解就是,對于給定的 LLM,其在特定任務(wù)上具有隨機(jī)少樣本準(zhǔn)確率,我們能否預(yù)測這個 LLM 在哪個擴(kuò)展點(diǎn)(例如,預(yù)訓(xùn)練損失)上性能將超越隨機(jī)表現(xiàn)?

帶著這一疑問,作者發(fā)現(xiàn)了這樣一個見解:在給定的任務(wù)上微調(diào) LLM, 可以將涌現(xiàn)發(fā)生的臨界點(diǎn)向著能力較低的模型移動 ,這意味著,通過微調(diào),模型在涌現(xiàn)能力出現(xiàn)的時間點(diǎn)可以提前,這對于理解模型擴(kuò)展和能力躍升的過程非常重要。微調(diào)所使用的數(shù)據(jù)量,會調(diào)節(jié)這種臨界點(diǎn)移動的幅度。 

圖 3(左)繪制了每個模型在 GSM8K 和 MMLU 上的少樣本和微調(diào)性能與預(yù)訓(xùn)練損失的關(guān)系??梢钥吹剑⒄{(diào)后的模型遵循與少樣本設(shè)置類似的 ReLU 形狀。此外,在相同的預(yù)訓(xùn)練損失下,所有模型大小的轉(zhuǎn)變都是一致的,這表明預(yù)訓(xùn)練損失可以作為少樣本和微調(diào)設(shè)置中有效的獨(dú)立變量。

作者還發(fā)現(xiàn)出現(xiàn)涌現(xiàn)偏移受微調(diào)數(shù)據(jù)量的影響。圖 3(右)繪制了 3B 模型檢查點(diǎn)在完整數(shù)據(jù)子集上進(jìn)行微調(diào)后的性能。在 MMLU 和 GSM8K 上,隨著微調(diào)數(shù)據(jù)量的增加,涌現(xiàn)點(diǎn)進(jìn)一步向能力較弱的 LLM 偏移。因此,微調(diào)數(shù)據(jù)量可以調(diào)節(jié)涌現(xiàn)偏移。

圖片

為了將這一洞察付諸實(shí)踐,作者針對不同數(shù)量的數(shù)據(jù)對 LLM 進(jìn)行了微調(diào),并擬合了一個參數(shù)函數(shù)(即涌現(xiàn)定律),該函數(shù)模擬了涌現(xiàn)點(diǎn)如何隨數(shù)據(jù)量的變化而變化。

圖片

圖片

然后,根據(jù)這一發(fā)現(xiàn)可以推斷出在少樣本設(shè)置中關(guān)于涌現(xiàn)的預(yù)測。

圖片

作者利用四個標(biāo)準(zhǔn) NLP 基準(zhǔn)來驗(yàn)證涌現(xiàn)定律,結(jié)果發(fā)現(xiàn)涌現(xiàn)定律可以提前準(zhǔn)確預(yù)測涌現(xiàn)點(diǎn),最多可提前 4 倍 FLOP。

圖片

接下來作者進(jìn)行了這樣一個實(shí)驗(yàn),就預(yù)訓(xùn)練 FLOPS 而言,可以提前多久成功做出預(yù)測。結(jié)果發(fā)現(xiàn),可以提前預(yù)測涌現(xiàn)的程度在某種程度上取決于任務(wù)。

在 MMLU 和 GSM8K 上,可以分別提前最多 4.3 倍和 3.9 倍的 FLOPS 涌現(xiàn)出現(xiàn)。然而,在 CommonsenseQA 和 CoLA 上,分別只能提前預(yù)測 1.9 倍和 2.3 倍。

圖片

最后,作者還進(jìn)行了真實(shí)世界的案例研究:1)低成本評估預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量(左)。2)使用困難 APPS 編碼基準(zhǔn)預(yù)測更復(fù)雜的能力,更接近未來前沿模型的能力(右)。

圖片

感興趣的讀者可以閱讀論文原文,了解更多研究內(nèi)容。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-08-05 13:45:46

模型AI

2024-03-04 08:15:00

2023-08-15 14:18:19

智能研究

2024-11-26 13:40:00

2023-05-04 14:55:02

模型AI

2025-04-18 08:42:52

模型推理AI

2024-01-09 12:53:16

模型訓(xùn)練

2025-04-30 09:09:00

2023-04-07 09:28:31

模型訓(xùn)練

2023-01-12 13:03:00

數(shù)據(jù)開源

2023-08-14 08:37:54

2023-07-01 13:27:55

2024-04-07 00:45:00

開源模型

2025-01-22 15:21:00

2023-04-07 13:54:37

模型AI

2023-12-04 13:52:00

模型數(shù)據(jù)

2022-12-23 10:15:44

模型AI

2023-05-31 16:15:51

模型圖像

2024-03-26 06:40:06

大語言模型人工智能AI

2023-11-14 07:47:42

IGN擴(kuò)散模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號