自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

微軟6頁論文爆火:三進制LLM,真香!

人工智能 新聞
若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

這就是由微軟和中國中科院大學在最新一項研究中所提出的結(jié)論——

所有的LLM,都將是1.58 bit的。

圖片

具體而言,這項研究提出的方法叫做BitNet b1.58,可以說是從大語言模型“根兒”上的參數(shù)下手。

將傳統(tǒng)以16位浮點數(shù)(如FP16或BF16)形式的存儲,統(tǒng)統(tǒng)變成了三進制,也就是 {-1, 0, 1}

圖片

值得注意的是,這里的“1.58 bit”并不是指每個參數(shù)占用1.58字節(jié)的存儲空間,而是指每個參數(shù)可以用1.58位的信息來表示。

在如此轉(zhuǎn)換之后,矩陣中的計算就只會涉及到整數(shù)的加法,因此會讓大模型在保持一定精度的同時,顯著減少所需的存儲空間和計算資源。

例如BitNet b1.58在3B模型大小時與Llama做比較,速度提高了2.71倍的同時,GPU內(nèi)存使用幾乎僅是原先的四分之一。

而且當模型的規(guī)模越大時(例如70B),速度上的提升和內(nèi)存上的節(jié)省就會更加顯著!

這種顛覆傳統(tǒng)的思路著實是讓網(wǎng)友們眼前一亮,論文在X上也是受到了高度的關(guān)注:

圖片

網(wǎng)友們驚嘆“改變游戲規(guī)則”的同時,還玩起了谷歌attention論文的老梗:

1 bit is all YOU need.

圖片

那么BitNet b1.58具體又是如何實現(xiàn)的?我們繼續(xù)往下看。

把參數(shù)都變成三進制

這項研究實則是原班人馬在此前發(fā)表的一篇論文基礎(chǔ)之上做的優(yōu)化,即在原始BitNet的基礎(chǔ)上增加了一個額外的0值。

圖片

整體來看,BitNet b1.58依舊是基于BitNet架構(gòu)(一種Transformer),用BitLinear替換了nn.Linear。

至于細節(jié)上的優(yōu)化,首先就是我們剛才提到的“加個0”,即權(quán)重量化(weight quantization)。

BitNet b1.58模型的權(quán)重被量化為三元值{-1, 0, 1},這相當于在二進制系統(tǒng)中使用了1.58 bit來表示每個權(quán)重。這種量化方法減少了模型的內(nèi)存占用,并簡化了計算過程。

圖片

其次,在量化函數(shù)設(shè)計方面,為了將權(quán)重限制在-1、0或+1之間,研究者們采用了一種稱為absmean的量化函數(shù)。

圖片

這個函數(shù)先會根據(jù)權(quán)重矩陣的平均絕對值進行縮放,然后將每個值四舍五入到最接近的整數(shù)(-1, 0, +1)。

接下來就到了激活量化(activation quantization)這一步。

激活值的量化與BitNet中的實現(xiàn)相同,但在非線性函數(shù)之前不將激活值縮放到[0, Qb]的范圍內(nèi)。相反,激活值被縮放到[?Qb, Qb]的范圍,以此來消除零點量化。

值得一提的是,研究團隊為了BitNet b1.58與開源社區(qū)兼容,采用了LLaMA模型的組件,如RMSNorm、SwiGLU等,使得它可以輕松集成到主流開源軟件中。

最后,在實驗的性能比較上,團隊將BitNet b1.58與FP16 LLaMA LLM在不同大小的模型上進行了比較。

圖片

結(jié)果顯示,BitNet b1.58在3B模型大小時開始與全精度LLaMA LLM在困惑度上匹配,同時在延遲、內(nèi)存使用和吞吐量方面有顯著提升。

而且當模型規(guī)模越大時,這種性能上提升就會越發(fā)顯著。

網(wǎng)友:能在消費級GPU跑120B大模型了

正如上文所言,這篇研究獨特的方法在網(wǎng)上引發(fā)了不小的熱議。

DeepLearning.scala作者楊博表示:

BitNet b1.58相比原版BitNet,最大的特點就是允許0參數(shù)。我覺得稍微修改一下量化函數(shù),也許可以控制0參數(shù)的比例。當0參數(shù)的比例很大時,可以用稀疏格式存儲權(quán)重,使得平均每個參數(shù)的顯存占用甚至低于1比特。這就相當于權(quán)重級別的MoE了。我覺得比一般的MoE更優(yōu)雅。

與此同時,他也提出了關(guān)于BitNet的缺點:

BitNet最大的缺點在于雖然能減少推理時的顯存開銷,但優(yōu)化器狀態(tài)和梯度仍然要用浮點數(shù),訓練仍然很費顯存。我覺得如果能把BitNet和訓練時節(jié)省顯存的技術(shù)結(jié)合起來,那么相比傳統(tǒng)半精度網(wǎng)絡(luò),同等算力和顯存下支持更多參數(shù),優(yōu)勢就很大了。

目前能節(jié)省優(yōu)化器狀態(tài)的顯存開銷的辦法是offloading。能節(jié)省梯度的顯存占用的辦法可能是ReLoRA。但是ReLoRA的論文實驗只用了十億參數(shù)的模型,并沒有證據(jù)表明能不能推廣到百億、千億參數(shù)的模型。

圖片

△圖源:知乎,經(jīng)授權(quán)引用

不過也有網(wǎng)友分析認為:

若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

圖片
圖片

那么你覺得這種新方法如何呢?

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-03-24 16:02:59

GPT-4測評

2023-04-03 09:56:22

模型系統(tǒng)

2025-03-25 09:04:12

2024-05-08 09:37:36

AI論文

2025-02-19 10:46:16

2022-09-13 14:54:08

模型AI

2023-09-27 08:18:03

2024-03-01 12:17:00

AI數(shù)據(jù)微軟

2023-07-19 17:27:38

研究方案

2022-08-02 20:21:00

SaaS驅(qū)動PLG

2025-02-12 10:06:25

2023-04-11 13:55:20

AI游戲

2025-02-20 11:29:21

2022-08-24 13:25:20

微軟Python小白神器

2025-02-12 16:13:34

2022-07-11 09:58:45

LPWAN蜂窩物聯(lián)網(wǎng)

2023-02-14 09:28:35

2023-06-19 10:09:01

數(shù)學AI

2025-01-20 13:10:22

點贊
收藏

51CTO技術(shù)棧公眾號