自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

小模型指導(dǎo)大模型!田淵棟等爆錘蒸餾:新方法更高效、更透明、更可控

人工智能 新聞
基于連續(xù)概念,Meta團(tuán)隊(duì)新研究提出了超越「下一個(gè)token預(yù)測」語言建模新范式。更加重要的是,新方法不僅能增強(qiáng)原有的范式,而且比起知識(shí)蒸餾,數(shù)據(jù)量減少20%,甚至能從小模型提取概念指導(dǎo)更大的模型!

「下一個(gè)token預(yù)測」(next token prediction,NTP)是大語言模型(LLMs)不斷取得突破的核心技術(shù)。

但這種依賴tokenization的方法,導(dǎo)致LLM「嚴(yán)重偏科」。

比如,Karpathy發(fā)現(xiàn)一個(gè)表情包相當(dāng)于53個(gè)token!

關(guān)注AI的可能也知道GPT-4o不會(huì)數(shù)字母,不知道Strawberray中有幾個(gè)字母「r」。

為了解決此類問題,最近的研究探討了超越token級(jí)信號(hào)的方法,利用更豐富的信息來訓(xùn)練模型。

比如說,一次性預(yù)測多個(gè)token;在下一個(gè)token預(yù)測之前增強(qiáng)輸入,加入豐富的信號(hào);或用連續(xù)的潛在表示替代離散的語言標(biāo)記,提高推理效率。

Meta的下一代系統(tǒng)「大概念模型」,徹底超越token級(jí)別語言建模,直接在語句級(jí)別上語言建模,擺脫人類語言類型對(duì)模型性能的制約。

這次,受到近期研究發(fā)現(xiàn)的啟發(fā),來自Meta的研究人員認(rèn)為稀疏自編碼器(Sparse Autoencoders,SAEs)可以捕捉高層次的語義概念,在LLM中有效地隔離出有意義的潛在特征。

由于SAEs是通過稀疏性約束訓(xùn)練,重構(gòu)模型的隱狀態(tài),它促使模型集中關(guān)注一組緊湊的概念維度。

這可以突出預(yù)訓(xùn)練模型的概念——即支撐模型預(yù)測的核心語義方向,同時(shí)避免不必要的特征。

論文鏈接:https://arxiv.org/abs/2502.08524

新研究在多個(gè)語言建模基準(zhǔn)和預(yù)訓(xùn)練模型規(guī)模(從百萬規(guī)模到十億規(guī)模的參數(shù)模型)上進(jìn)行廣泛的評(píng)估,展示了CoCoMix的有效性。

例如,在應(yīng)用于1.38B參數(shù)模型時(shí),CoCoMix在下一個(gè)token預(yù)測任務(wù)中的表現(xiàn)與傳統(tǒng)方法相當(dāng),同時(shí)減少了21.5%的訓(xùn)練數(shù)據(jù)量。

此外,CoCoMix在弱監(jiān)督到強(qiáng)監(jiān)督場景中表現(xiàn)出顯著的提升,其中從小模型中提取的概念甚至可以作為真實(shí)標(biāo)簽,用于監(jiān)督大模型的訓(xùn)練。

最后,通過插入壓縮的概念向量,能夠在生成過程中探查預(yù)測的概念,從而引導(dǎo)和控制模型。

主要方法:CoCoMix

CoCoMix是一種新的LLM預(yù)訓(xùn)練框架,通過預(yù)測概念并將其混入模型的隱狀態(tài)中,以提高下一個(gè)token預(yù)測的準(zhǔn)確性。

更高的樣本效率,在下一個(gè)token預(yù)測、知識(shí)蒸餾以及插入暫停token等任務(wù)中表現(xiàn)優(yōu)越,同時(shí)提高可解釋性和可引導(dǎo)性,增強(qiáng)模型的可控性。

連續(xù)概念混合(CoCoMix)使用基于連續(xù)概念的語言建??蚣?。具體而言,CoCoMix包含三個(gè)步驟來學(xué)習(xí)和使用潛在概念:

1. 從預(yù)訓(xùn)練的SAE中,提取概念并選擇顯著的概念。

2. LLM從其隱藏狀態(tài)預(yù)測這些概念。

3. 一旦預(yù)測出多個(gè)概念,就將它們壓縮成一個(gè)單一的「連續(xù)概念」,并將其「混合」到LLM隱藏狀態(tài)中。

圖1:CoCoMix的概覽。

新研究證明了CoCoMix具有更高的樣本效率,并且優(yōu)于標(biāo)準(zhǔn)的下一個(gè)token預(yù)測和知識(shí)蒸餾基線。

實(shí)驗(yàn)結(jié)果

CoCoMix在性能上始終優(yōu)于下一個(gè)token預(yù)測和知識(shí)蒸餾。

此外,新研究表明CoCoMix可以實(shí)現(xiàn)弱監(jiān)督到強(qiáng)監(jiān)督的轉(zhuǎn)換,其中從較小模型中提取的概念可以指導(dǎo)更強(qiáng)(或更大)的學(xué)生模型。

由于模型經(jīng)過訓(xùn)練可以預(yù)測其隱藏狀態(tài)中的概念,可以通過檢查概念預(yù)測來分析它關(guān)注哪些概念。通過放大或抑制預(yù)測的概念,我們還可以控制模型的輸出生成。

總而言之,CoCoMix效率更高,并且在不同模型規(guī)模下都優(yōu)于下一個(gè)token預(yù)測,同時(shí)還引入了可解釋性。

具體而言,通過研究以下問題,對(duì)CoCoMix進(jìn)行了實(shí)證評(píng)估:

  • CoCoMix能否提高LLM預(yù)訓(xùn)練中下一個(gè)token預(yù)測的性能?(圖2和圖3)
  • 與其他知識(shí)蒸餾方法相比,CoCoMix從弱監(jiān)督到強(qiáng)監(jiān)督設(shè)置中是否表現(xiàn)出改進(jìn)?(表1和圖4)
  • CoCoMix是否引入了模型的可解釋性和可操縱性?(圖5)
  • CoCoMix提出的各個(gè)組件對(duì)性能貢獻(xiàn)如何?(圖6)

提高NTP性能

圖2展示了CoCoMix與NTP(Next Token Prediction,下一個(gè)token預(yù)測)在不同訓(xùn)練檢查點(diǎn)(checkpoint)的性能比較。每個(gè)模型包含總共1.38B個(gè)參數(shù),都在OpenWebText數(shù)據(jù)集上進(jìn)行訓(xùn)練。對(duì)于CoCoMix,概念是從一個(gè)1.24億大小的模型(比基礎(chǔ)模型小10倍)中提取的。

顯示了以下方面的改進(jìn):(a)驗(yàn)證困惑度,(b)在LAMBADA、WikiText-103上的平均困惑度,以及(c)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的平均準(zhǔn)確率。

圖3展示了CoCoMix與NTP在不同模型大小下的性能比較。考慮了各種模型大小,包括69M、386M和1.38B個(gè)參數(shù),并在200B個(gè)OpenWebText的token上進(jìn)行訓(xùn)練。評(píng)估了模型在OpenWebText驗(yàn)證困惑度以及下游數(shù)據(jù)集LAMBADA、WikiText-103、HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的表現(xiàn)。

與知識(shí)蒸餾比較

表1展示了CoCoMix與下一token預(yù)測(NTP)與知識(shí)蒸餾(KD)的對(duì)比。報(bào)告了在OpenWebText(OWT)訓(xùn)練集上的表現(xiàn),以及在下游任務(wù)中的表現(xiàn)。訓(xùn)練了三種不同規(guī)模的模型,其中124M模型作為教師模型。所有模型均在從OpenWebText數(shù)據(jù)集采樣的20B個(gè)token上進(jìn)行訓(xùn)練。加粗部分表示最佳結(jié)果。

圖4展示了CoCoMix與知識(shí)蒸餾(KD)的比較。對(duì)于弱監(jiān)督到強(qiáng)監(jiān)督設(shè)置,訓(xùn)練一個(gè)386M的模型,其中KD的教師(或CoCoMix的概念提取器)是一個(gè)124M大小的模型:報(bào)告了(a)在OpenWebText、LAMABADA和WikiText上的平均困惑度,以及(b)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande數(shù)據(jù)集上的平均準(zhǔn)確率。對(duì)于(c)分布偏移設(shè)置,在OpenWebMath(一個(gè)數(shù)學(xué)特定的預(yù)訓(xùn)練語料庫)上訓(xùn)練所有方法。

可解釋性和可操縱性

圖5是概念引導(dǎo)效果的定性說明。CoCoMix和GPT2模型分別是350M和124M參數(shù)的Transformer,訓(xùn)練數(shù)據(jù)集為OpenWebText。對(duì)于CoCoMix,通過調(diào)整預(yù)測的概念logit值z來進(jìn)行操作,而對(duì)于GPT2,通過增加特定概念索引的激活值來調(diào)整SAE概念空間c。這展示了有針對(duì)性的概念引導(dǎo)對(duì)各自模型輸出的影響。

各組件貢獻(xiàn)

圖6 對(duì)CoCoMix的分析:

(a) 歸因分?jǐn)?shù)在選擇概念中的有效性。

(b) 概念預(yù)測與直接隱藏狀態(tài)預(yù)測的比較(即,用連續(xù)損失預(yù)測隱藏狀態(tài),而不是用SAE離散化隱藏狀態(tài))。

(c) 壓縮權(quán)重的稀疏性。

(d) 通過分析概念預(yù)測和混合的貢獻(xiàn)進(jìn)行的組件分析。

(e) 通過比較將概念向量添加到原始隱藏狀態(tài)和混合(將概念向量與token隱藏表示交替)來選擇概念條件設(shè)定的設(shè)計(jì)。

(f) CoCoMix與暫停token(即添加可學(xué)習(xí)的tokens)的比較。使用了一個(gè)69M的transformer,并且使用來自O(shè)penWebText數(shù)據(jù)集的20B個(gè)tokens進(jìn)行訓(xùn)練。

另外,值得一提是,作者中有多位華人,特別是「網(wǎng)紅科學(xué)家」田淵棟也參與了本次論文工作。

更為詳細(xì)的實(shí)驗(yàn)設(shè)置,請參閱原文。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-02-17 09:30:00

AI訓(xùn)練模型

2024-02-27 11:46:40

2023-05-15 09:43:49

模型數(shù)據(jù)

2023-12-07 06:51:18

AI模型

2024-03-08 12:35:41

模型數(shù)據(jù)

2024-12-19 09:48:07

2024-02-26 00:20:00

AI模型

2023-06-28 18:10:27

羊駝家族大模型集體進(jìn)化

2023-03-17 08:28:17

GPT-4AI

2024-12-30 07:11:00

大型視覺語言模型VLMs人工智能

2022-06-02 10:29:23

神經(jīng)網(wǎng)絡(luò)AI計(jì)算機(jī)

2023-09-06 13:34:31

2025-02-28 09:15:00

2025-04-22 08:08:37

2023-08-04 13:42:41

2023-09-25 10:04:37

模型AI

2025-02-06 07:26:35

2024-06-07 09:15:48

2023-07-04 10:11:28

數(shù)據(jù)模型

2022-12-08 13:00:10

AI性別偏見
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)