自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta 發(fā)布 Megabyte AI 模型抗衡 Transformer:解決后者已知問題、速度提升四成

人工智能 新聞
Meta 團隊開發(fā)了一款名為 Megabyte 的 AI 模型以抗衡 Transformer,據(jù)稱 Megabyte 解決了 Transformer 模型所面臨的問題,并且在速度上提升了 40%。

5 月 30 日消息,近日 Meta 團隊開發(fā)了一款名為 Megabyte 的 AI 模型以抗衡 Transformer,據(jù)稱 Megabyte 解決了 Transformer 模型所面臨的問題,并且在速度上提升了 40%。

▲ 圖源 Arxiv

目前 Transformer 在自然語言處理等領域非常流行,但由于其序列數(shù)據(jù)的處理方式是逐步進行的,無法并行化處理,因此訓練速度較慢; 難以處理長序列,因為其在反向傳播過程中,梯度很容易消失或爆炸;此外,由于需要在每一步保留歷史信息,內(nèi)存消耗較大。

而 Megabyte 模型將輸入和輸出序列劃分為 patch,而不是單個的 token。這種架構(gòu)使得對大多數(shù)任務而言字節(jié)級別的預測相對容易,例如根據(jù)前幾個字符預測完成的單詞等。這意味著在大型網(wǎng)絡中可以精簡字符以提升效率,并且內(nèi)部預測可以使用更小的模型進行。Megabyte 模型的這種方法解決了當今 AI 模型所面臨的訓練速度、可靠性及硬件占用比挑戰(zhàn)。

▲ 圖源 Arxiv

此外,在計算效率方面,相比于等大的 Transformer 和 Linear Transformer,Megabyte 模型在固定模型大小和序列長度范圍內(nèi)使用更少的 token。因此相對于 Transformer,Megabyte 模型可以在相同的計算成本下訓練內(nèi)容更豐富、體積更大、性能更好的模型。

目前 Meta 團隊放出了 Megabyte 模型的論文,小伙伴可以前往查閱。


責任編輯:龐桂玉 來源: IT之家
相關推薦

2023-05-30 13:57:52

模型速度

2025-01-16 08:30:00

LLMAI訓練

2023-06-14 08:27:08

Meta人工智能

2024-07-10 10:19:26

2021-07-16 21:13:51

微信iOS移動應用

2023-04-21 10:10:07

Vite 4.3前端

2023-06-12 14:15:38

AI開源

2023-09-28 20:57:23

Meta人工智能聊天機器人

2013-05-22 09:20:42

Chrome 27瀏覽器

2023-04-23 13:32:28

MetaAI開源

2023-02-28 07:03:09

AIMeta大型語言

2024-12-18 15:02:48

2025-02-04 12:37:51

MetaAI開發(fā)

2024-04-07 14:48:00

模型訓練

2024-08-26 07:40:00

AI訓練

2024-07-25 13:36:32

2023-09-20 10:14:03

Next.js前端

2024-07-01 20:45:55

2024-10-28 16:20:00

點贊
收藏

51CTO技術(shù)棧公眾號