自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大模型超強(qiáng)內(nèi)存優(yōu)化:成本削減高達(dá)75%,性能不減弱!成果出自日本一初創(chuàng)AI公司之手;網(wǎng)友:電力可能夠用了!

原創(chuàng) 精選
人工智能
與Sakana AI開發(fā)的其他技術(shù)一樣,NAMMs是通過進(jìn)化算法而非基于梯度的優(yōu)化方法進(jìn)行訓(xùn)練的。通過反復(fù)變異和選擇表現(xiàn)最佳的模型,進(jìn)化算法優(yōu)化NAMMs的效率和性能。這尤其重要,因?yàn)镹AMMs試圖實(shí)現(xiàn)一個(gè)不可微分的目標(biāo):保留或丟棄標(biāo)記。

出品 | 51CTO技術(shù)棧(微信號(hào):blog51cto)

一項(xiàng)逆天的大模型優(yōu)化技術(shù)來了!

東京初創(chuàng)公司Sakana AI的研究人員開發(fā)了一種新技術(shù),讓大模型能夠更有效地使用內(nèi)存,不僅最多節(jié)省75%的內(nèi)存占用,還甚至性能也有所提升!

這種名為“通用Transformer內(nèi)存”的技術(shù)使用特殊的神經(jīng)網(wǎng)絡(luò)優(yōu)化LLM,保留重要的信息并丟棄冗余的細(xì)節(jié)。

這項(xiàng)技術(shù)旨在幫助企業(yè)降低基于大模型和其他基于Transformer的模型構(gòu)建應(yīng)用程序的成本。

這項(xiàng)技術(shù)在Hacker News上也被廣泛討論,一位網(wǎng)友說:會(huì)不會(huì)在經(jīng)過三四年的性能優(yōu)化,我們會(huì)發(fā)現(xiàn)根本不需要建核電站?

圖片圖片

1.Transformer內(nèi)存技術(shù):神經(jīng)網(wǎng)絡(luò)決定是否記憶存儲(chǔ)的Tokens

目前的模型支持非常長(zhǎng)的上下文窗口,可以容納數(shù)十萬甚至數(shù)百萬個(gè)Tokens。

這使得用戶能夠在提示中塞入更多信息。然而,較長(zhǎng)的提示可能導(dǎo)致更高的計(jì)算成本和較慢的性能。

當(dāng)前的提示優(yōu)化技術(shù)需要大量資源,或者要求用戶手動(dòng)測(cè)試不同配置以減少提示的大小。

Sakana AI的研究人員,所開發(fā)的通用Transformer內(nèi)存技術(shù),通過神經(jīng)注意力記憶模型(NAMMs)優(yōu)化提示。NAMMs是簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),決定是否“記住”或“忘記”LLM內(nèi)存中存儲(chǔ)的每個(gè)Token。

“這一新功能使Transformer能夠丟棄不重要或冗余的細(xì)節(jié),專注于最關(guān)鍵的信息,我們認(rèn)為這對(duì)于需要長(zhǎng)上下文推理的任務(wù)至關(guān)重要,”研究人員寫道。

圖片圖片

NAMMs與LLM是分開訓(xùn)練的,并在推理時(shí)與預(yù)訓(xùn)練模型結(jié)合,這使得它們具有靈活性,易于部署。然而,它們需要訪問模型的內(nèi)部激活,因此只能應(yīng)用于開源模型。

與Sakana AI開發(fā)的其他技術(shù)一樣,NAMMs是通過進(jìn)化算法而非基于梯度的優(yōu)化方法進(jìn)行訓(xùn)練的。通過反復(fù)變異和選擇表現(xiàn)最佳的模型,進(jìn)化算法優(yōu)化NAMMs的效率和性能。這尤其重要,因?yàn)镹AMMs試圖實(shí)現(xiàn)一個(gè)不可微分的目標(biāo):保留或丟棄標(biāo)記。

NAMMs作用于LLM的注意力層,這是Transformer架構(gòu)的關(guān)鍵組件,決定了模型上下文窗口中每個(gè)標(biāo)記的關(guān)系和重要性?;谧⒁饬χ?,NAMMs決定應(yīng)保留哪些標(biāo)記,哪些可以從LLM的上下文窗口中丟棄。這種基于注意力的機(jī)制使得訓(xùn)練好的NAMM可以在不同模型上使用而無需進(jìn)一步修改。例如,訓(xùn)練在文本數(shù)據(jù)上的NAMM可以應(yīng)用于視覺或多模態(tài)模型,而無需額外訓(xùn)練。

2.通用內(nèi)存技術(shù)的應(yīng)用:最高節(jié)省75%內(nèi)存

為了測(cè)試通用Transformer內(nèi)存的實(shí)際效果,研究人員在開源的Meta Llama 3-8B模型上訓(xùn)練了一個(gè)NAMM。他們的實(shí)驗(yàn)顯示,使用NAMMs后,基于Transformer的模型在非常長(zhǎng)的序列上處理自然語言和編碼問題時(shí)表現(xiàn)更好。同時(shí),通過丟棄不必要的標(biāo)記,NAMM使LLM模型在執(zhí)行任務(wù)時(shí)節(jié)省了高達(dá)75%的緩存內(nèi)存。

“在我們的基準(zhǔn)測(cè)試中,NAMMs顯著提高了Llama 3-8B Transformer的性能,”研究人員寫道。“此外,我們的內(nèi)存系統(tǒng)還帶來了顯著的附加好處,減少了每層的上下文大小,同時(shí)從未專門優(yōu)化過內(nèi)存效率?!?/p>

他們還在70B版本的Llama模型以及針對(duì)其他模態(tài)和任務(wù)設(shè)計(jì)的Transformer模型上進(jìn)行了測(cè)試,如Llava(計(jì)算機(jī)視覺)和Decision Transformer(強(qiáng)化學(xué)習(xí))。

“即使在這些分布外的設(shè)置中,NAMMs通過丟棄冗余的視頻幀和不理想的行動(dòng),仍然保持其優(yōu)勢(shì),使其新的基礎(chǔ)模型能夠?qū)W⒂谧钕嚓P(guān)的信息,從而提高性能,”研究人員寫道。

圖片圖片

上圖:神經(jīng)注意力記憶模型 (NAMM) 會(huì)檢查注意力層,以確定哪些標(biāo)記應(yīng)從上下文窗口中保留或丟棄

3.新發(fā)現(xiàn):神經(jīng)網(wǎng)絡(luò)能根據(jù)任務(wù)調(diào)整其行為

另一個(gè)有趣的發(fā)現(xiàn)是,NAMMs會(huì)根據(jù)任務(wù)自動(dòng)調(diào)整其行為。

例如,在編碼任務(wù)中,模型丟棄與代碼執(zhí)行無關(guān)的連續(xù)標(biāo)記塊,如注釋和空白字符。

另一方面,在自然語言任務(wù)中,模型丟棄表示語法冗余且不影響序列意義的標(biāo)記。

研究人員發(fā)布了創(chuàng)建自己NAMM的代碼。像通用Transformer內(nèi)存這樣的技術(shù)對(duì)于處理數(shù)百萬個(gè)標(biāo)記的企業(yè)應(yīng)用程序非常有用,能夠提升速度并降低成本。經(jīng)過訓(xùn)練的NAMM的可重用性也使其成為跨不同應(yīng)用程序使用的多功能工具。

未來,研究人員建議采用更先進(jìn)的技術(shù),例如在訓(xùn)練LLM時(shí)使用NAMMs,以進(jìn)一步擴(kuò)展其內(nèi)存能力。

“這項(xiàng)工作僅僅開始挖掘我們這一新型內(nèi)存模型的潛力,我們預(yù)期它可能為推動(dòng)未來幾代Transformer的發(fā)展提供許多新機(jī)會(huì),”研究人員寫道。

參考鏈接:https://venturebeat.com/ai/new-llm-optimization-technique-slashes-memory-costs-up-to-75/

想了解更多AIGC的內(nèi)容,請(qǐng)?jiān)L問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2023-06-07 17:55:01

模型性能

2024-06-07 13:42:41

2021-02-09 21:28:16

AI人工智能AI芯片

2017-02-06 13:24:27

思科初創(chuàng)網(wǎng)絡(luò)

2021-03-15 23:11:12

內(nèi)存虛擬化技術(shù)

2022-11-07 09:23:39

DPU服務(wù)器PUE

2018-08-15 09:16:56

網(wǎng)絡(luò)初創(chuàng)公司網(wǎng)絡(luò)網(wǎng)絡(luò)交付

2024-12-02 11:45:48

2013-04-08 09:34:12

SDN軟件定義網(wǎng)絡(luò)初創(chuàng)公司

2024-12-27 15:54:54

2018-09-10 13:02:48

人工智能AI創(chuàng)業(yè)公司

2025-03-20 00:00:00

CISOAI網(wǎng)絡(luò)安全

2025-02-17 10:49:49

2021-11-26 05:19:52

AI初創(chuàng)公司人工智能

2023-07-03 14:49:39

2025-02-20 09:27:46

2023-05-11 07:32:28

科技人工智能網(wǎng)站

2024-08-29 16:01:14

2024-10-14 14:47:58

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)