自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI模仿人腦記憶模式,游戲成績(jī)大漲29.9%

人工智能 新聞
他們將成果命名為的帶有記憶的決策Transformer(DT-Mem)。相比傳統(tǒng)的決策模型,DT-Mem適用廣泛性更強(qiáng),模型運(yùn)算的效率也更高。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

我們常常被教育的做事“三思而后行”,充分運(yùn)用積累過的經(jīng)驗(yàn),現(xiàn)在這句話對(duì)AI也有所啟發(fā)了。

傳統(tǒng)的決策AI模型由于遺忘效應(yīng)的存在不能有效積累經(jīng)驗(yàn),但一項(xiàng)由華人主導(dǎo)的研究改變了AI的記憶方式。

新的記憶方式模仿了人類大腦,有效地提高了AI積累經(jīng)驗(yàn)的效率,從而將AI打游戲的成績(jī)提高了29.9%

研究團(tuán)隊(duì)由六人組成,分別來自米拉-魁北克AI研究院和微軟蒙特利爾研究所,其中有四名是華人。

他們將成果命名為的帶有記憶的決策Transformer(DT-Mem)。

相比傳統(tǒng)的決策模型,DT-Mem適用廣泛性更強(qiáng),模型運(yùn)算的效率也更高。

除了應(yīng)用效果,DT-Mem的訓(xùn)練時(shí)間也從最短200小時(shí)縮短至50小時(shí)。

同時(shí),團(tuán)隊(duì)還提出了一種微調(diào)方式,讓DT-Mem能夠適應(yīng)未訓(xùn)練過的新場(chǎng)景。

微調(diào)后的模型,面對(duì)沒有學(xué)習(xí)過的游戲,也能擁有不錯(cuò)的表現(xiàn)。

工作機(jī)制受到人類啟發(fā)

傳統(tǒng)的決策模型基于LLM進(jìn)行設(shè)計(jì),采用隱性記憶,其性能依賴于數(shù)據(jù)和計(jì)算。

隱性記憶是無意識(shí)產(chǎn)生而非刻意記住的,因而也無法有意識(shí)地進(jìn)行調(diào)用。

說得通俗一些,就是明明有關(guān)內(nèi)容就存儲(chǔ)在那里,但是模型卻并不知道它的存在。

隱性記憶的這一特點(diǎn)決定了傳統(tǒng)模型存在遺忘現(xiàn)象,導(dǎo)致其工作效率往往不高。

遺忘現(xiàn)象表現(xiàn)為,在學(xué)了新的問題解決方式之后,模型可能會(huì)將舊的內(nèi)容忘記,哪怕新舊問題是同一類型。

而人腦采用分布式記憶存儲(chǔ)方式,記憶的內(nèi)容被分散存儲(chǔ)在大腦中的多個(gè)不同區(qū)域。

這種方式有助于有效地管理和組織多種技能,從而減輕遺忘現(xiàn)象。

受此啟發(fā),研究團(tuán)隊(duì)提出了一個(gè)內(nèi)部工作記憶模塊來存儲(chǔ)、混合和檢索不同下游任務(wù)的信息。

具體而言,DT-Mem由Transformer、記憶模塊和多層感知(MLP)模塊三部分組成。

圖片

DT-Mem的Transformer模仿了GPT-2的架構(gòu),但刪去了注意力機(jī)制后的前饋層。

同時(shí),GPT-2中的MLP模塊被拆分成了獨(dú)立組件,作為DT-Mem的一部分。

在二者之間,研究團(tuán)隊(duì)引入了一個(gè)工作記憶模塊,用于存儲(chǔ)和處理中間信息。

這一結(jié)構(gòu)是受到神經(jīng)圖靈機(jī)的啟發(fā),其中的記憶被用于推斷多種算法。

記憶模塊分析Transformer輸出的信息,并決定其存儲(chǔ)位置以及與已有信息的整合方式。

此外,該模塊還要考慮這些信息在今后做出決策的過程當(dāng)中如何使用。

圖片

這些任務(wù)大概通過五個(gè)步驟來完成,記憶模塊首先被初始化為一個(gè)隨機(jī)矩陣。

然后是對(duì)輸入信息的整理,這一步并不是將信息傳給Transformer,而是以元組形式存入同一空間。

之后就要確定存儲(chǔ)位置。人類通常會(huì)將相關(guān)的信息存儲(chǔ)到同一位置,DT-Mem也是基于這一原理。

最后兩步——記憶更新和檢索是記憶模塊的核心,也是整個(gè)DT-Mem中最重要的環(huán)節(jié)。

記憶更新,即對(duì)已有信息進(jìn)行編輯替換,以確保信息能根據(jù)任務(wù)需要及時(shí)更新。

這一步中DT-Mem會(huì)計(jì)算擦除和寫入兩個(gè)向量,進(jìn)而判斷如何與已有數(shù)據(jù)混合。

記憶檢索則是對(duì)已有信息的訪問和恢復(fù),在需要做出決策時(shí)及時(shí)調(diào)取相關(guān)有用信息。

投入實(shí)際使用之前,DT-Mem還要經(jīng)歷預(yù)訓(xùn)練過程。

圖片

而對(duì)于DT-Mem的微調(diào),團(tuán)隊(duì)也提出了一種新的方式。

由于使用的是基于任務(wù)進(jìn)行標(biāo)記的數(shù)據(jù),這種微調(diào)能夠幫助DT-Mem適應(yīng)新的任務(wù)。

這一過程基于低秩適應(yīng)(LoRA)進(jìn)行,在已有的矩陣中加入低秩元素。

圖片

訓(xùn)練時(shí)間最多縮短32倍

為了測(cè)試DT-Mem的決策能力,研究團(tuán)隊(duì)讓它玩了幾款游戲。

游戲一共有5款,全部來自Atari公司。

同時(shí),團(tuán)隊(duì)還測(cè)試了傳統(tǒng)模型M[ulti-game]DT的表現(xiàn)作為參照。

結(jié)果,DT-Mem在其中4款游戲里的最好成績(jī)均勝過MDT。

具體而言,DT-Mem比MDT的DQN標(biāo)準(zhǔn)化分?jǐn)?shù)提高了29.9%。

圖片

但是,DT-Mem的參數(shù)量只有20M,僅是MDT(200M參數(shù))的10%。

這樣的表現(xiàn),說是四兩撥千斤一點(diǎn)也不過分。

除了表現(xiàn)優(yōu)異,DT-Mem的訓(xùn)練效率也完爆MDT。

13M參數(shù)量版本的MDT需要200小時(shí)進(jìn)行訓(xùn)練,而20M的DT-Mem卻只需要50個(gè)小時(shí)。

如果和200M的版本相比,訓(xùn)練時(shí)間足足縮短了32倍,表現(xiàn)卻更優(yōu)異。

圖片

而針對(duì)團(tuán)隊(duì)提出的微調(diào)方式的測(cè)試結(jié)果也表明,這種微調(diào)增強(qiáng)了DT-Mem適應(yīng)未知情景的能力。

需要說明的是,下表中用來測(cè)試的游戲?qū)τ贛DT來說是已知的,因此MDT的表現(xiàn)在這一輪當(dāng)中不作為衡量依據(jù)。

圖片

除了玩游戲,團(tuán)隊(duì)還使用了Meta-World ML45基準(zhǔn)對(duì)DT-Mem進(jìn)行了測(cè)試。

這次用作參照的是H[yper]DT和P[romot]DT。

結(jié)果顯示,未經(jīng)微調(diào)的模型當(dāng)中,DT-Mem成績(jī)比HDT高出8個(gè)百分點(diǎn)。

需要說明的是,這里測(cè)試的HDT本身參數(shù)量雖然只有69K,但需依賴于2.3M參數(shù)量的預(yù)訓(xùn)練模型,因此實(shí)際的參數(shù)量是DT-Mem(147K)的10余倍。

圖片

論文地址:https://arxiv.org/abs/2305.16338

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2015-12-08 09:04:00

2021-01-13 19:30:28

神經(jīng)網(wǎng)絡(luò)AI人工智能

2023-11-03 20:35:57

AI人工智能

2022-08-25 21:41:43

ArkUI鴻蒙

2017-07-06 11:34:17

神經(jīng)形態(tài)計(jì)算人工智能突觸

2011-10-17 13:54:30

IBM仿生計(jì)算機(jī)

2021-03-05 15:09:59

人工智能人臉識(shí)別安全

2023-12-08 08:16:24

2012-10-24 14:04:35

凈虧損5900萬美元

2021-10-28 10:38:49

人工智能語言模型技術(shù)

2023-06-14 15:06:30

筆跡AI

2023-08-07 14:09:58

數(shù)據(jù)庫開發(fā)

2023-05-26 08:24:20

2021-12-20 09:56:23

AI 數(shù)據(jù)人工智能

2021-08-25 17:14:28

芯片AI技術(shù)

2022-10-19 16:08:07

人工智能深度學(xué)習(xí)

2021-05-06 09:43:45

AI 模型人工智能

2024-04-17 09:35:30

AI數(shù)字化
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)