自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%

發(fā)布于 2024-5-6 09:28
瀏覽
0收藏

“預(yù)測下一個token”被認(rèn)為是大模型的基本范式,一次預(yù)測多個tokens又會怎樣?


Meta AI法國團(tuán)隊推出“基于多token預(yù)測的更快&更好大模型”。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

多token預(yù)測模型,在編程類任務(wù)上表現(xiàn)尤其突出。


與單token預(yù)測相比,13B參數(shù)模型在HumanEval上多解決了12%的問題,在MBPP上多解決了17%。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

小型算法推理任務(wù)上,多token預(yù)測也在分布外泛化方面帶來了令人印象深刻的收益。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

不過在自然語言任務(wù)上,多token預(yù)測方法并不能顯著提高7B模型在數(shù)學(xué)選擇題上的表現(xiàn)了。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

另外一個好處是,即使batch size較大,使用4-token預(yù)測訓(xùn)練的模型,推理速度也可提高3倍。

多token預(yù)測更適合編程

具體來說,團(tuán)隊設(shè)計了一種新的多token預(yù)測架構(gòu),通過n個獨(dú)立的輸出頭并行預(yù)測n個未來token。


使用大量文本數(shù)據(jù)進(jìn)行模型訓(xùn)練,包括代碼和自然語言數(shù)據(jù)集。


再通過實驗比較多token預(yù)測和單token預(yù)測在多個下游任務(wù)上的性能。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

為啥多token預(yù)測在編程任務(wù)和小型算法推理任務(wù)上提升更明顯?


團(tuán)隊猜測可能有兩個原因:


第一,編程語言的邏輯結(jié)構(gòu)更嚴(yán)謹(jǐn),知識的內(nèi)在聯(lián)系更緊密。一個關(guān)鍵節(jié)點(diǎn)可能影響到后續(xù)整個代碼塊的走向。多Token預(yù)測能更好捕捉這種長距離依賴。


第二,相比自然語言,編程語言的詞匯量更小。因此即便每次預(yù)測多個Token,難度也沒那么大。反而能迫使模型從局部細(xì)節(jié)中抽身,著眼全局優(yōu)化。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

除了在token層面的實驗,團(tuán)隊還在更細(xì)粒度的字節(jié)級模型上做了嘗試。


他們發(fā)現(xiàn),用8字節(jié)預(yù)測替代下一個字節(jié)預(yù)測后,模型在MBPP上的Pass@1指標(biāo)暴增67%,在HumanEval上也提升了20%。


而且推理速度還能再快6倍,簡直不要太香。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

對于背后原理,團(tuán)隊認(rèn)為多token預(yù)測緩解了訓(xùn)練時Teacher Forcing和推理時自回歸生成之間的分布差異。


也就是說,在訓(xùn)練的時候,模型看到的都是標(biāo)準(zhǔn)答案,生成的時候卻得靠自己。好比人類在家做練習(xí)冊時有答案,考試時卻啥也沒有,就會不適應(yīng)。


而多token預(yù)測相當(dāng)于訓(xùn)練時就逼著模型多想幾步,這樣到了考場上,才能應(yīng)對自如。


從信息論的角度,團(tuán)隊還給出了一個更精確的論證。

?

傳統(tǒng)的下一個Token預(yù)測,目標(biāo)是最小化當(dāng)前位置的信息熵。而2-Token預(yù)測實際上最小化的是當(dāng)前和下一位置的信息熵之和。


數(shù)學(xué)推導(dǎo)表明,后者其實隱含了更大的互信息權(quán)重,也就是更看重當(dāng)前Token和未來Token的相關(guān)性。這就是為什么多Token預(yù)測更”有遠(yuǎn)見”。


不過在這篇論文中,還有幾個未解決的問題。

?

比如沒有探討如何自動選擇最佳的預(yù)測token數(shù)量n,作者提出,未來可以研究使用損失權(quán)重調(diào)整或動態(tài)調(diào)整n來解決最佳n的選擇問題。


此外最佳的詞表大小也可能與單token預(yù)測時不同。


總之,看過這篇論文之后,大家都更期待Llama-4了。

一次預(yù)測多個token,Meta新模型推理加速3倍,編程任務(wù)提高17%-AI.x社區(qū)

論文地址:???https://arxiv.org/abs/2404.19737??


本文轉(zhuǎn)自 量子位 ,作者:量子位


原文鏈接:??https://mp.weixin.qq.com/s/GuIqBdj4MteR9eBlTesdBA?poc_token=HKExOGajTyMBxP3FMXkCt7skHNxyXVBljVHxyLI-??

標(biāo)簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦