自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

RNN模型挑戰(zhàn)Transformer霸權(quán)!1%成本性能比肩Mistral-7B,支持100+種語言全球最多

人工智能
大模型內(nèi)卷時代,也不斷有人跳出來挑戰(zhàn)Transformer的統(tǒng)治地位,RWKV最新發(fā)布的Eagle 7B模型登頂了多語言基準(zhǔn)測試,同時成本降低了數(shù)十倍。

在大模型內(nèi)卷的同時,Transformer的地位也接連受到挑戰(zhàn)。

近日,RWKV發(fā)布了Eagle 7B模型,基于最新的RWKV-v5架構(gòu)。

Eagle 7B在多語言基準(zhǔn)測試中,擊敗了所有的同級別模型,在單獨(dú)的英語測試中,也和表現(xiàn)最好的模型基本打平。

同時,Eagle 7B用的是RNN架構(gòu),相比于同尺寸的Transformer模型,推理成本降低了10-100倍以上,可以說是世界上最環(huán)保的7B模型。

由于RWKV-v5的論文可能要下個月才能發(fā)布,這里先奉上RWKV的論文,——也是第一個擴(kuò)展到數(shù)百億參數(shù)的非Transformer架構(gòu)。

圖片圖片

論文地址:https://arxiv.org/pdf/2305.13048.pdf

這篇工作已被EMNLP 2023錄用,我們可以看到論文的作者來自不同國家的頂尖高校、研究機(jī)構(gòu)以及科技公司。

下面是Eagle 7B的官圖,表示這只老鷹正在飛躍變形金剛。

圖片圖片

Eagle 7B

Eagle 7B使用來自100多種語言的,1.1T(萬億)個Token的訓(xùn)練數(shù)據(jù),在下圖的多語言基準(zhǔn)測試中,Eagle 7B平均成績位列第一。

基準(zhǔn)測試包括xLAMBDA、xStoryCloze、xWinograd和xCopa,涵蓋了23種語言,以及各自語言的常識推理。

Eagle 7B拿到了其中三項(xiàng)的第一,盡管有一項(xiàng)沒打過Mistral-7B,屈居第二,但對手使用的訓(xùn)練數(shù)據(jù)要遠(yuǎn)高于Eagle。

圖片圖片

下圖的英語測試包含了12個獨(dú)立的基準(zhǔn)、常識推理和世界知識。

在英語性能測試中,Eagle 7B的水平接近Falcon(1.5T)、LLaMA2(2T)、Mistral(>2T),與同樣使用了1T左右訓(xùn)練數(shù)據(jù)的MPT-7B不相上下。

圖片圖片

并且,在兩種測試中,新的v5架構(gòu)相比于之前的v4,有了巨大的整體飛躍。

Eagle 7B目前由Linux基金會托管,以Apache 2.0許可證授權(quán),可以不受限制地用于個人或商業(yè)用途。

多語言支持

前面說了,Eagle 7B的訓(xùn)練數(shù)據(jù)來自100多種語言,而上面采用的4項(xiàng)多語言基準(zhǔn)測試只包括了23種語言。

圖片圖片

雖然取得了第一名的成績,但總的來說,Eagle 7B是吃虧的,畢竟,基準(zhǔn)測試無法直接評估模型在其他70多種語言中的性能。

額外的訓(xùn)練代價并不能幫助自己刷榜,如果集中在英語,可能會獲得比現(xiàn)在更好的成績。

——那么,RWKV為什么要這么做呢?官方對此表示:

Building inclusive AI for everyone in this world —— not just the English

在對于RWKV模型的眾多反饋中,最常見的是:

多語言方法損害了模型的英語評估分?jǐn)?shù),并減緩了線性Transformer的發(fā)展;

讓多語言模型與純英語模型,比較多語言性能是不公平的

官方表示,「在大多數(shù)情況下,我們同意這些意見,」

「但我們沒有計劃改變這一點(diǎn),因?yàn)槲覀冋跒槭澜鐦?gòu)建人工智能——這不僅僅是一個英語世界?!?/span>

圖片圖片

2023年,世界上只有17%的人口會說英語(大約13億人),但是,通過支持世界上排名前25位的語言,模型可以覆蓋大約40億人,即世界人口總數(shù)的50%。

團(tuán)隊(duì)希望未來的人工智能可以為每個人都提供幫助,比如讓模型可以在低端硬件上以低廉的價格運(yùn)行,比如支持更多的語言。

團(tuán)隊(duì)將在之后逐漸擴(kuò)大多語言數(shù)據(jù)集,以支持更廣泛的語言,并慢慢將覆蓋范圍擴(kuò)大到世界上100%的地區(qū),——確保沒有語言被遺漏。

數(shù)據(jù)集+可擴(kuò)展架構(gòu)

在模型的訓(xùn)練過程中,有一個值得注意的現(xiàn)象:

隨著訓(xùn)練數(shù)據(jù)規(guī)模不斷增加,模型的性能逐漸進(jìn)步,當(dāng)訓(xùn)練數(shù)據(jù)達(dá)到300B左右時,模型顯示出與pythia-6.9b 相似的性能,而后者的訓(xùn)練數(shù)據(jù)量為300B。

圖片圖片

這個現(xiàn)象與之前在RWKV-v4架構(gòu)上進(jìn)行的一項(xiàng)實(shí)驗(yàn)相同,——也就是說,在訓(xùn)練數(shù)據(jù)規(guī)模相同的情況下,像RWKV這種線性Transformer的性能會和Transformer差不多。

那么我們不禁要問,如果確實(shí)如此,那么是不是相比于確切的架構(gòu),數(shù)據(jù)反而對模型的性能提升更加重要?

圖片圖片

我們知道,Transformer類的模型,計算和存儲代價是平方級別的,而在上圖中RWKV架構(gòu)的計算成本只是隨著Token數(shù)線性增長。

也許我們應(yīng)該尋求更高效、更可擴(kuò)展的架構(gòu),以提高可訪問性,降低每個人的人工智能成本,并減少對環(huán)境的影響。

RWKV

RWKV架構(gòu)是一種具有GPT級別LLM性能的RNN,同時又可以像Transformer一樣并行化訓(xùn)練。

RWKV結(jié)合了RNN和Transformer的優(yōu)點(diǎn)——出色的性能、快速推理、快速訓(xùn)練、節(jié)省VRAM、「無限」的上下文長度和免費(fèi)的句子嵌入,RWKV并不使用注意力機(jī)制。

下圖展示了RWKV與Transformer派模型在計算成本上的對比:

圖片圖片

為了解決Transformer的時間和空間復(fù)雜度問題,研究人員提出了多種架構(gòu):

圖片圖片

RWKV架構(gòu)由一系列堆疊的殘差塊組成,每個殘差塊由一個具有循環(huán)結(jié)構(gòu)的時間混合和一個通道混合子塊組成

下圖中左邊為RWKV塊元素,右邊為RWKV殘差塊,以及用于語言建模的最終頭部。

圖片圖片

遞歸可以表述為當(dāng)前輸入和前一個時間步的輸入之間的線性插值(如下圖中的對角線所示),可以針對輸入嵌入的每個線性投影獨(dú)立調(diào)整。

這里還引入了一個單獨(dú)處理當(dāng)前Token的向量,以補(bǔ)償潛在的退化。

圖片圖片

RWKV可以在我們所說的時間并行模式下有效地并行化(矩陣乘法)。

在循環(huán)網(wǎng)絡(luò)中,通常使用前一時刻的輸出作為當(dāng)前時刻的輸入。這在語言模型的自回歸解碼推理中尤為明顯,它要求在輸入下一步之前計算每個令牌,從而使RWKV能夠利用其類似RNN的結(jié)構(gòu),稱為時間順序模式。

在這種情況下,RWKV可以方便地遞歸表述,以便在推理過程中進(jìn)行解碼,它利用了每個輸出令牌僅依賴于最新狀態(tài)的優(yōu)勢,狀態(tài)的大小是恒定的,而與序列長度無關(guān)。

然后充當(dāng)RNN解碼器,相對于序列長度產(chǎn)生恒定的速度和內(nèi)存占用,從而能夠更有效地處理較長的序列。

相比之下,自注意力的KV緩存相對于序列長度不斷增長,從而導(dǎo)致效率下降,并隨著序列的延長而增加內(nèi)存占用和時間。

參考資料:

https://blog.rwkv.com/p/eagle-7b-soaring-past-transformers

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2024-03-05 09:00:00

大型語言模型Mistral-7b人工智能

2024-07-22 07:10:00

小模型機(jī)器學(xué)習(xí)蘋果

2025-02-17 12:30:00

2025-03-10 07:00:00

阿里開源QwQ-32B

2024-07-23 10:20:57

2024-07-18 12:53:13

2024-02-05 13:24:51

GPUNLP芯片

2021-07-20 10:16:24

人工智能自然語言技術(shù)

2024-08-13 12:49:29

2022-09-23 15:36:07

語言模型Google

2024-03-25 08:00:00

2023-08-01 13:09:42

代碼開發(fā)

2024-04-15 07:50:00

AI架構(gòu)

2025-04-16 08:50:00

模型AI數(shù)據(jù)

2024-09-05 14:25:00

訓(xùn)練代碼

2014-02-14 14:37:57

Ubuntu 12.0Ubuntu 14.0

2023-03-14 13:45:14

模型AI

2023-05-25 16:24:13

2023-04-28 15:24:06

模型研究

2019-10-12 13:36:43

機(jī)器學(xué)習(xí)人工智能計算機(jī)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號