自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Mamba論文為什么沒(méi)被ICLR接收?AI社區(qū)沸騰了

人工智能 新聞
基于 Mamba 的創(chuàng)新正不斷涌現(xiàn),但原論文卻被 ICLR 放到了「待定區(qū)」。

2023 年,Transformer 在 AI 大模型領(lǐng)域的統(tǒng)治地位被撼動(dòng)了。發(fā)起挑戰(zhàn)的新架構(gòu)名叫「Mamba」,它是一種選擇性狀態(tài)空間模型( selective state space model),在語(yǔ)言建模方面可以媲美甚至擊敗 Transformer。而且,它可以隨上下文長(zhǎng)度的增加實(shí)現(xiàn)線性擴(kuò)展,其性能在實(shí)際數(shù)據(jù)中可提高到百萬(wàn) token 長(zhǎng)度序列,并實(shí)現(xiàn) 5 倍的推理吞吐量提升。

在發(fā)布之后的一個(gè)多月里,Mamba 逐漸展現(xiàn)出自己的影響力,衍生出了 MoE-Mamba、Vision Mamba、VMamba、U-Mamba、MambaByte 等多項(xiàng)工作,在克服 Transformer 短板方面表現(xiàn)出了越來(lái)越大的潛力。

但這樣一顆冉冉升起的「新星」,卻在 2024 年的 ICLR 會(huì)議中遭遇了滑鐵盧。最新的公開(kāi)結(jié)果顯示,Mamba 的論文至今還沒(méi)有被大會(huì)接收,我們只能在 Decision Pending(待定)一欄看到它的身影(可能是延遲決定,也可能是被拒)。

總體來(lái)看,給 Mamba 打分的總共有四位審稿人,他們分別給出了 8/8/6/3 的打分。有人表示,如果拿到這樣的分?jǐn)?shù)還被拒,那確實(shí)是一件很奇怪的事情。

要弄清其中的緣由,我們還得看一下打出低分的審稿人是怎么說(shuō)的。

論文審稿頁(yè)面:https://openreview.net/forum?id=AL1fq05o7H

為什么「not good enough」?

在評(píng)審反饋中,給出「3: reject, not good enough」打分的審稿人解釋了自己對(duì)于 Mamba 的幾點(diǎn)意見(jiàn):

對(duì)模型設(shè)計(jì)的想法:

  • Mamba 的動(dòng)機(jī)是解決遞歸模型的缺點(diǎn),同時(shí)提高基于注意力模型的效率。有很多研究都是沿著這個(gè)方向進(jìn)行的:S4-diagonal [1]、SGConv [2]、MEGA [3]、SPADE [4],以及許多高效的 Transformer 模型(如 [5])。所有這些模型都達(dá)到了接近線性的復(fù)雜度,作者需要在模型性能和效率方面將 Mamba 與這些作品進(jìn)行比較。關(guān)于模型性能,一些簡(jiǎn)單的實(shí)驗(yàn)(如 Wikitext-103 的語(yǔ)言建模)就足夠了。
  • 許多基于注意力的 Transformer 模型顯示出長(zhǎng)度泛化能力,即模型可以在較短的序列長(zhǎng)度上進(jìn)行訓(xùn)練,并在較長(zhǎng)的序列長(zhǎng)度上進(jìn)行測(cè)試。這方面的例子包括相對(duì)位置編碼(T5)和 Alibi [6]。由于 SSM 一般都是連續(xù)的,那么 Mamba 是否具有這種長(zhǎng)度泛化能力呢?

對(duì)實(shí)驗(yàn)的想法:

  • 作者需要與更強(qiáng)的基線進(jìn)行比較。作者表示 H3 被用作模型架構(gòu)的動(dòng)機(jī),然而他們并沒(méi)有在實(shí)驗(yàn)中與 H3 進(jìn)行比較。根據(jù) [7] 中的表 4,在 Pile 數(shù)據(jù)集上,H3 的 ppl 分別為 8.8(1.25 M)、7.1(3.55 M)和 6.0(1.3B),大大優(yōu)于 Mamba。作者需要展示與 H3 的比較。
  • 對(duì)于預(yù)訓(xùn)練模型,作者只展示了零樣本推理的結(jié)果。這種設(shè)置相當(dāng)有限,結(jié)果不能很好地支持 Mamba 的有效性。我建議作者進(jìn)行更多的長(zhǎng)序列實(shí)驗(yàn),比如文檔摘要,輸入序列自然會(huì)很長(zhǎng)(例如,arXiv 數(shù)據(jù)集的平均序列長(zhǎng)度大于 8k)。
  • 作者聲稱其主要貢獻(xiàn)之一是長(zhǎng)序列建模。作者應(yīng)該在 LRA(Long Range Arena)上與更多基線進(jìn)行比較,這基本上是長(zhǎng)序列理解的標(biāo)準(zhǔn)基準(zhǔn)。
  • 缺少內(nèi)存基準(zhǔn)。盡管第 4.5 節(jié)的標(biāo)題是「速度和內(nèi)存基準(zhǔn)」,但只介紹了速度比較。此外,作者應(yīng)提供圖 8 左側(cè)更詳細(xì)的設(shè)置,如模型層、模型大小、卷積細(xì)節(jié)等。作者能否提供一些直觀信息,說(shuō)明為什么當(dāng)序列長(zhǎng)度非常大時(shí),F(xiàn)lashAttention 的速度最慢(圖 8 左)?

此外,另一位審稿人也指出 Mamba 存在的不足:該模型在訓(xùn)練過(guò)程中仍然像 Transformers 一樣具有二次內(nèi)存需求。

作者:已修改,求審閱

匯總所有審稿人的意見(jiàn)之后,作者團(tuán)隊(duì)也對(duì)論文內(nèi)容進(jìn)行了修改和完善,補(bǔ)充了新的實(shí)驗(yàn)結(jié)果和分析:

  • 增加了 H3 模型的評(píng)估結(jié)果

作者下載了大小為 125M-2.7B 參數(shù)的預(yù)訓(xùn)練 H3 模型,并進(jìn)行了一系列評(píng)估。Mamba 在所有語(yǔ)言評(píng)估中都明顯更勝一籌,值得注意的是,這些 H3 模型是使用二次注意力的混合模型,而作者僅使用線性時(shí)間 Mamba 層的純模型在各項(xiàng)指標(biāo)上都明顯更優(yōu)。

與預(yù)訓(xùn)練 H3 模型的評(píng)估對(duì)比如下:

圖片


  • 將完全訓(xùn)練過(guò)的模型擴(kuò)展到更大的模型規(guī)模

如下圖所示,與根據(jù)相同 token 數(shù)(300B)訓(xùn)練的 3B 開(kāi)源模型相比,Mamba 在每個(gè)評(píng)估結(jié)果上都更勝一籌。它甚至可以與 7B 規(guī)模的模型相媲美:當(dāng)將 Mamba(2.8B)與 OPT、Pythia 和 RWKV(7B)進(jìn)行比較時(shí),Mamba 在每個(gè)基準(zhǔn)上都獲得了最佳平均分和最佳 / 次佳得分。

圖片


  • 展示了超出訓(xùn)練長(zhǎng)度的長(zhǎng)度外推結(jié)果

作者附上了一張?jiān)u估預(yù)訓(xùn)練 3B 參數(shù)語(yǔ)言模型長(zhǎng)度外推的附圖:

圖片

圖中繪出了每個(gè)位置的平均損失(對(duì)數(shù)可讀性)。第一個(gè) token 的困惑度很高,因?yàn)樗鼪](méi)有上下文,而 Mamba 和基線 Transformer(Pythia)的困惑度在訓(xùn)練上下文長(zhǎng)度(2048)之前都有所提高。有趣的是,Mamba 的可解性在超過(guò)其訓(xùn)練上下文后有了顯著提高,最高可達(dá) 3000 左右的長(zhǎng)度。

作者強(qiáng)調(diào),長(zhǎng)度外推并不是本文模型的直接動(dòng)機(jī),而是將其視為額外功能:

  1. 這里的基線模型(Pythia)在訓(xùn)練時(shí)并沒(méi)有考慮長(zhǎng)度外推法,或許還有其他 Transformer 變體更具通用性(例如 T5 或 Alibi 相對(duì)位置編碼)。
  2. 沒(méi)有發(fā)現(xiàn)任何使用相對(duì)位置編碼在 Pile 上訓(xùn)練的開(kāi)源 3B 模型,因此無(wú)法進(jìn)行這種比較。
  3. Mamba 和 Pythia 一樣,在訓(xùn)練時(shí)沒(méi)有考慮長(zhǎng)度外推法,因此不具有可比性。正如 Transformer 有很多技術(shù)(如不同的位置嵌入)來(lái)提高它們?cè)陂L(zhǎng)度概括等軸上的能力一樣,在未來(lái)的工作中,為類(lèi)似的能力推導(dǎo)出 SSM 特有的技術(shù)可能會(huì)很有趣。
  • 補(bǔ)充了 WikiText-103 的新結(jié)果

作者分析了多篇論文的結(jié)果,表明 Mamba 在 WikiText-103 上的表現(xiàn)明顯優(yōu)于其他 20 多個(gè)最新的次二次序列模型。

圖片

圖片

圖片

盡管如此,兩個(gè)月過(guò)去了,這篇論文還處于「Decision Pending」流程中,沒(méi)有得到「接收」或者「拒絕」的明確結(jié)果。

被頂會(huì)拒絕的那些論文

在各大 AI 頂會(huì)中,「投稿數(shù)量爆炸」都是一個(gè)令人頭疼的問(wèn)題,所以精力有限的審稿人難免有看走眼的時(shí)候。這就導(dǎo)致歷史上出現(xiàn)了很多著名論文被頂會(huì)拒絕的情況,包括 YOLO、transformer XL、Dropout、支持向量機(jī)(SVM)、知識(shí)蒸餾、SIFT,還有 Google 搜索引擎的網(wǎng)頁(yè)排名算法 PageRank(參見(jiàn):《大名鼎鼎的 YOLO、PageRank 影響力爆棚的研究,曾被 CS 頂會(huì)拒稿》)。

甚至,身為深度學(xué)習(xí)三巨頭之一的 Yann LeCun 也是經(jīng)常被拒的論文大戶。剛剛,他發(fā)推文說(shuō),自己被引 1887 次的論文「Deep Convolutional Networks on Graph-Structured Data」也被頂會(huì)拒絕了。

圖片

在 ICML 2022 期間,他甚至「投了三篇,被拒三篇」。

圖片

所以,論文被某個(gè)頂會(huì)拒絕并不代表沒(méi)有價(jià)值。在上述被拒的論文中,很多論文選擇了轉(zhuǎn)投其他會(huì)議,并最終被接收。因此,網(wǎng)友建議 Mamba 轉(zhuǎn)投陳丹琦等青年學(xué)者組建的 COLM。COLM 是一個(gè)專(zhuān)注于語(yǔ)言建模研究的學(xué)術(shù)場(chǎng)所,專(zhuān)注于理解、改進(jìn)和評(píng)論語(yǔ)言模型技術(shù)的發(fā)展,或許對(duì)于 Mamba 這類(lèi)論文來(lái)說(shuō)是更好的選擇。

圖片

不過(guò),無(wú)論 Mamba 最終能否被 ICLR 接收,它都已經(jīng)成為一份頗具影響力的工作,也讓社區(qū)看到了沖破 Transformer 桎梏的希望,為超越傳統(tǒng) Transformer 模型的探索注入了新的活力。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2024-01-17 12:05:12

AI模型

2024-02-26 07:40:00

研究論文

2024-10-08 14:48:24

2021-05-28 06:16:28

藍(lán)牙Wi-FiNFC

2020-04-13 13:56:07

AI 論文開(kāi)源

2023-06-27 09:53:11

論文AI

2025-03-13 09:16:25

2024-01-02 17:28:12

芯片CPUAI計(jì)算

2022-09-19 00:08:22

人工智能機(jī)器交通管制

2024-05-09 11:24:20

AI論文

2020-06-10 09:06:48

MongoDB架構(gòu)高可用

2017-02-27 15:19:04

2023-07-23 17:19:34

人工智能系統(tǒng)

2024-06-24 07:58:00

2022-10-24 07:54:36

磁盤(pán)磁帶電磁感應(yīng)

2020-03-27 13:33:21

阿里安全AIAI模型

2023-12-25 15:11:16

AI模型

2025-02-06 10:21:51

2024-01-26 12:48:49

AI數(shù)據(jù)

2017-09-27 16:04:08

AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)