自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

新聞 機(jī)器學(xué)習(xí)
任意長(zhǎng)度的上下文都能 hold ???這里有一個(gè)名為∞-former 的新模型。

  [[422086]]

在過去的幾年里,Transformer 幾乎統(tǒng)治了整個(gè) NLP 領(lǐng)域,還跨界到計(jì)算機(jī)視覺等其他領(lǐng)域。但它也有弱點(diǎn),比如不擅長(zhǎng)處理較長(zhǎng)上下文,因?yàn)橛?jì)算復(fù)雜度會(huì)隨著上下文長(zhǎng)度的增長(zhǎng)而增長(zhǎng),這使其難以有效建模長(zhǎng)期記憶。為了緩解這一問題,人們提出了多種 Transformer 變體,但它們的記憶容量都是有限的,不得不拋棄較早的信息。

在一篇論文中,來自 DeepMind 等機(jī)構(gòu)的研究者提出了一種名為 ∞-former 的模型,它是一種具備無限長(zhǎng)期記憶(LTM)的 Transformer 模型,可以處理任意長(zhǎng)度的上下文。

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

論文鏈接:https://arxiv.org/pdf/2109.00301.pdf

通過利用連續(xù)空間注意力機(jī)制來處理長(zhǎng)期記憶,∞-former 的注意力復(fù)雜度可以獨(dú)立于上下文長(zhǎng)度。因此,它能夠借助一個(gè)固定的算力開銷建模任意長(zhǎng)度的上下文并保持「粘性記憶(sticky memories)」。

在一個(gè)綜合排序任務(wù)上進(jìn)行的實(shí)驗(yàn)證明了∞-former 能夠保留來自長(zhǎng)序列的信息。此外,研究者還進(jìn)行了語(yǔ)言建模的實(shí)驗(yàn),包括從頭開始訓(xùn)練一個(gè)模型以及對(duì)一個(gè)預(yù)訓(xùn)練的語(yǔ)言模型進(jìn)行微調(diào),這些實(shí)驗(yàn)顯示了無限長(zhǎng)期記憶的優(yōu)勢(shì)。

不過,和其他很多 Transformer 變體的論文一樣,這篇論文的標(biāo)題也引發(fā)了一些吐槽:

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

∞-former:一種擁有無限記憶的 Transformer

為了使模型能夠處理長(zhǎng)程上下文,研究者提出用一個(gè)連續(xù) LTM 來擴(kuò)展原始 transformer,這個(gè) LTM 存儲(chǔ)前面步驟的輸入嵌入和隱藏狀態(tài)。他們還考慮了有兩種記憶的可能性:LTM 和 STM(短期記憶),類似于 transformer-XL 的記憶。∞-former 的整體架構(gòu)如下圖 1 所示。

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

為了讓新模型的 LTM 達(dá)到無限的程度,研究者使用了一個(gè)連續(xù)空間注意力框架(參見《 Sparse and Continuous Attention Mechanisms 》),它在適用于記憶的信息單元數(shù)量(基函數(shù))和這些單元的表示粒度之間進(jìn)行了權(quán)衡。在這一框架中,輸入序列被表征為一個(gè)連續(xù)信號(hào),表示為徑向基函數(shù)的一個(gè)線性組合。這種表征有兩個(gè)顯著的優(yōu)勢(shì):1)上下文可以用 N 個(gè)基函數(shù)來表示,N 小于上下文中 token 的數(shù)量,降低了注意力復(fù)雜度;2)N 可以是固定的,這使得在記憶中表征無限長(zhǎng)度的上下文成為可能(如圖 2 所示),代價(jià)是損失 resolution,但不增加其注意力復(fù)雜度,O(L^2 + L × N),其中的 L 對(duì)應(yīng) transformer 序列長(zhǎng)度。

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

為了緩解損失較早記憶 resolution 的問題。研究者引入了「粘性記憶」的概念,將 LTM 新信號(hào)中的較大空間歸于之前記憶信號(hào)的相關(guān)區(qū)域。這是一種強(qiáng)制重要信息在 LTM 中持續(xù)存在的過程,使得模型可以在不損失相關(guān)信息的情況下更好地捕捉長(zhǎng)上下文,類似于大腦中的長(zhǎng)時(shí)程增強(qiáng)和突觸可塑性。

實(shí)驗(yàn)結(jié)果

為了檢驗(yàn)∞-former 能否建模長(zhǎng)上下文,研究者首先針對(duì)一個(gè)綜合任務(wù)進(jìn)行了實(shí)驗(yàn),包括把 token 按其在一個(gè)長(zhǎng)序列中的頻率進(jìn)行排序,結(jié)果如下:

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

從圖中可以看出,在序列長(zhǎng)度為 4000 的時(shí)候,transformerXL 的準(zhǔn)確率要略高于 compressive transformer 和 ∞-former。這是因?yàn)?transformerXL 幾乎可以在記憶中保存整個(gè)完整序列。但隨著序列長(zhǎng)度的增加,transformerXL 的準(zhǔn)確率迅速下降,compressive transformer 和 ∞-former 變化較小。這表明∞-former 更擅長(zhǎng)建模長(zhǎng)序列。

接下來,他們又進(jìn)行了語(yǔ)言建模實(shí)驗(yàn),包括:1)從頭訓(xùn)練一個(gè)模型;2)微調(diào)一個(gè)預(yù)訓(xùn)練語(yǔ)言模型。

第一個(gè)語(yǔ)言建模實(shí)驗(yàn)的結(jié)果如下表 1 所示。從中可以看出,利用長(zhǎng)期記憶擴(kuò)展模型確實(shí)會(huì)帶來更好的困惑度結(jié)果,而且使用粘性記憶也可以在一定程度上降低困惑度。

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

第二個(gè)語(yǔ)言建模實(shí)驗(yàn)的結(jié)果如下表 2 所示。該結(jié)果表明,通過簡(jiǎn)單地將長(zhǎng)期記憶添加至 GPT-2 并進(jìn)行微調(diào),模型在 Wikitext-103 和 PG19 上的困惑度都會(huì)降低。這表明∞-former 具有多種用途:既可以從頭開始訓(xùn)練模型,也可以用于改進(jìn)預(yù)訓(xùn)練模型。

Transformer又出新變體∞-former:無限長(zhǎng)期記憶,任意長(zhǎng)度上下文

 

 

責(zé)任編輯:張燕妮 來源: 機(jī)器之心Pro
相關(guān)推薦

2023-07-11 10:02:23

2024-03-14 08:11:45

模型RoPELlama

2023-09-16 13:47:47

人工智能數(shù)據(jù)

2017-05-11 14:00:02

Flask請(qǐng)求上下文應(yīng)用上下文

2025-01-16 08:20:00

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文

2022-09-15 08:01:14

繼承基礎(chǔ)設(shè)施基礎(chǔ)服務(wù)

2024-09-30 14:10:00

2025-03-18 08:14:05

2017-12-17 17:01:23

限界上下文系統(tǒng)模型

2022-10-28 16:24:33

Context上下文鴻蒙

2023-11-22 16:51:53

2025-02-06 10:21:51

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端

2021-07-26 07:47:36

Cpu上下文進(jìn)程

2025-04-28 09:02:14

2010-02-25 17:04:54

WCF實(shí)例上下文

2019-05-06 14:36:48

CPULinux寄存器

2022-04-24 15:37:26

LinuxCPU
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)