自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

教大模型自己跳過“無用”層,推理速度×3性能不變,谷歌MIT這個新方法火了

人工智能 新聞
谷歌MIT的研究人員提出了一個新框架CALM,讓它自己來決定計算量。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

大語言模型用著爽,但推理速度實(shí)在太慢了?

而且,增加模型體積,推理效果也并不一定就比之前更好。

為了解決這一問題,谷歌MIT的研究人員提出了一個新框架CALM,讓它自己來決定計算量。

如果CALM意識到某些層“可有可無”,那么它在計算時就會跳過這些層。

論文被po到網(wǎng)上后,立刻火了一波:

圖片

有網(wǎng)友表示,我們就是需要這樣更智能和自適應(yīng)的模型,顯然CALM的解碼器已經(jīng)做到了:

圖片

直接用中間層輸出結(jié)果

CALM全稱Confident Adaptive Language Modeling,即置信自適應(yīng)大語言模型。

這一模型基于Transformer架構(gòu),為了加速它的計算,研究人員提出了一個名叫“提前退出(early exiting)的方法,讓模型根據(jù)不同的輸入,動態(tài)決定要用多少層網(wǎng)絡(luò)來計算。

也就是說,在計算的過程中,模型不需要經(jīng)過每一層計算再輸出結(jié)果,而是能直接用中間層的特征輸出token,從而降低模型計算量。

圖片

所以,模型如何決定“退出”的時機(jī)呢?

這就需要訓(xùn)練模型學(xué)會自己判斷了。

其中,Yfull是標(biāo)準(zhǔn)模型輸出的結(jié)果,Yearly是模型“提前退出”時輸出的結(jié)果。為了讓Yearly的效果更好,就需要盡可能讓它與Yfull保持一致。

圖片

當(dāng)然,不同的任務(wù)對于文本輸出一致性也有不同的要求,例如對生成結(jié)果要求沒那么嚴(yán)格(可以生成更多樣的語句)的任務(wù),對于Yfull和Yearly的一致性要求就沒那么高。

因此作者們也在論文中給出了兩個不同的公式,可根據(jù)實(shí)際情況選用:

圖片

在實(shí)際操作上,論文通過設(shè)置一個局部的token置信度,來檢查其對整個生成序列的影響。

模型在解碼過程中,會計算每一層的置信度c,并將它與達(dá)到“提前退出”的閾值λ相比,如果c大于λ,則模型“提前退出”。

圖片

所以,這樣的模型實(shí)際測試效果究竟如何?

歸納翻譯QA任務(wù)表現(xiàn)都不錯

論文在CNN/DM、WMT和SQuAD三個數(shù)據(jù)集上進(jìn)行了測試。

圖片

其中,CNN/DM是一個新聞文章數(shù)據(jù)集,需要輸出一個幾句話概括文章的結(jié)果;WMT15 EN-FR是一個機(jī)器翻譯數(shù)據(jù)集,主要是法譯英句子的結(jié)果;Open-book SQUAD 1.1則是一個根據(jù)維基百科提問的QA數(shù)據(jù)集。

圖片

據(jù)一作Tal Schuster介紹,在保持相同性能的情況下,CALM使用的解碼器層數(shù)平均比之前降低了3倍

對于這篇論文,有網(wǎng)友表示贊同:模型確實(shí)不需要總是“長時間深入思考”,有時候幾層就能推理出正確答案了。

據(jù)作者表示,這一加速解碼的思路,適用于任何Seq2seq模型。

圖片

作者介紹

這篇論文的作者一共有8個人,分別來自谷歌和MIT CSAIL,其中主要負(fù)責(zé)人有兩位,Tal Schuster和Adam Fisch。

圖片

Tal Schuster博士畢業(yè)于MIT,目前是谷歌的高級研究員,研究方向是機(jī)器學(xué)習(xí)模型的魯棒性、可靠性和效率提升。

?圖片

Adam Fisch,MIT在讀博士生,本科畢業(yè)于普林斯頓大學(xué),研究方向是機(jī)器學(xué)習(xí)量化不確定性、少樣本學(xué)習(xí)等。

圖片

對大語言模型推理加速感興趣的小伙伴,可以戳論文地址詳細(xì)了解。

論文地址:
https://arxiv.org/abs/2207.07061

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-02-21 12:10:00

模型數(shù)據(jù)

2023-04-27 13:06:46

AI手機(jī)模型

2018-10-07 07:00:59

2021-09-27 10:12:42

欺騙防御rMTD網(wǎng)絡(luò)攻擊

2022-10-28 15:16:52

檢測數(shù)據(jù)

2024-09-29 10:40:00

數(shù)據(jù)模型

2010-04-01 09:30:57

2015-08-21 09:14:40

大數(shù)據(jù)

2011-07-15 10:48:20

英特爾谷歌數(shù)據(jù)中心

2022-11-28 07:32:46

迭代器remove數(shù)據(jù)庫

2019-12-30 09:41:59

機(jī)器學(xué)習(xí)人工智能計算機(jī)

2023-10-05 06:05:54

谷歌時間訓(xùn)練

2024-10-08 13:38:56

2021-02-19 18:10:06

微軟WindowsWindows 10

2019-07-12 13:50:36

物聯(lián)網(wǎng)大數(shù)據(jù)安全

2022-07-07 10:47:16

IngressKubernetes

2023-12-29 13:18:23

模型NeRFTICD

2010-09-02 13:59:17

background-background-CSS3

2023-09-25 10:04:37

模型AI

2020-05-14 14:21:50

谷歌AI數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號