自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

僅需0.4GB,參數(shù)只有0和±1!微軟開源首個原生1 bit模型,CPU輕松跑

人工智能 新聞
微軟研究院開源的原生1bit大模型BitNet b1.58 2B4T,將低精度與高效能結(jié)合,開創(chuàng)了AI輕量化的新紀(jì)元。通過精心設(shè)計的推理框架,BitNet不僅突破了內(nèi)存的限制,還在多項基準(zhǔn)測試中表現(xiàn)出色,甚至與全精度模型不相上下。

大模型輕量化終于又有好玩的了。

就在最近,微軟亞研院開源了第一款參數(shù)量達(dá)到20億,并且還是原生1bit精度的LLM——BitNet b1.58 2B4T。

圖片

論文地址:https://arxiv.org/abs/2504.12285

這個模型好玩在三個點(diǎn)上,其實都在模型名字里了:

1. b1.58量化

這個模型里的參數(shù),一共只有{-1, 0, +1}三種數(shù)值,很難想象知識是如何壓縮在里面的!(根據(jù)信息論計算公式圖片,這個模型的精度就是≈1.58,如果是純粹的1bit量化,那么只有兩個數(shù)值)。

2. 模型非常的小!

參數(shù)只有2B,和動輒14B、32B、617B等全量模型相比,大小還不到他們零頭,并且由于參數(shù)的精度壓縮到極低,所以這個模型只有0.4GB的大小。

3. 針對CPU的推理框架

使用為CPU架構(gòu)專門設(shè)計的開源推理框架BitNet來運(yùn)行,微軟已經(jīng)花了1-2年的時間來完善了這個框架。

圖片

這種低精度、低參數(shù),并且能在CPU上原生推理的大模型,為端側(cè)AI開啟了無限可能性。

甚至未來有可能可以部署在家里的電飯煲或者冰箱中,成為真正的「AI智能體」。

首個開源原生1bit模型

微軟推出的BitNet b1.58 2B4T是首個開源的、原生1 bit的LLM,參數(shù)規(guī)模達(dá)到20億。

該模型在包含4萬億個Token的語料庫上進(jìn)行訓(xùn)練,別看它小,這個模型在涵蓋語言理解、數(shù)學(xué)推理、編碼熟練度和對話能力的基準(zhǔn)測試中都進(jìn)行了嚴(yán)格評估。

只有三種參數(shù)的BitNet b1.58 2B4T的性能與同類大小全精度的LLM相當(dāng)。

圖片

上圖可以看到,BitNet b1.58 2B4T在30億參數(shù)以下的模型中,就性能與內(nèi)存而言,取得了不錯的平衡。

在11個基準(zhǔn)測試中的平均分已經(jīng)和1.5B和2B的全精度模型相當(dāng),用微軟自己的話說就是,「推進(jìn)了由領(lǐng)先的開放權(quán)重LLMs定義的帕累托前沿,展示了更高的效率」。

同時,BitNet b1.58 2B4T在計算效率方面提供了顯著優(yōu)勢,包括大幅減少的內(nèi)存占用、能耗和解碼延遲。

該模型的權(quán)重已經(jīng)通過 Hugging Face 發(fā)布,并提供了針對GPU和CPU架構(gòu)的開源推理實現(xiàn)。

圖片

極限的技術(shù)探索

開源LLMs已經(jīng)是AI領(lǐng)域非常重要的一股力量,但是由于部署和推理所需的大量計算資源(簡單說就是沒卡)阻礙了社區(qū)發(fā)展——雖然開源了,但是大部分人都玩不了。

1-bit LLMs,代表了一種極端但是非常有前景的模型量化形式。

當(dāng)模型的權(quán)重被限制為二進(jìn)制{-1, +1}或三進(jìn)制{-1, 0, +1},通過大幅減少存儲權(quán)重所需的內(nèi)存并實現(xiàn)高效的位運(yùn)算,它們有可能顯著降低部署成本、減少能耗并加速推理速度。

微軟的這項工作證明,當(dāng)原生1 bit LLMs在大規(guī)模上數(shù)據(jù)集有效訓(xùn)練時,可以實現(xiàn)與全精度類似規(guī)模的模型相媲美的性能。

BitNet b1.58 2B4T的架構(gòu)采用標(biāo)準(zhǔn)的Transformer模型,并基于BitNet框架進(jìn)行了修改,該模型完全從零開始訓(xùn)練——參數(shù)并不是后期量化成{-1, 0, +1},而是原生訓(xùn)練。

預(yù)訓(xùn)練技術(shù)路線

預(yù)訓(xùn)練語料庫由公開可用的文本和代碼數(shù)據(jù)集組成,包括大型網(wǎng)絡(luò)爬蟲數(shù)據(jù)集,如DCLM和教育網(wǎng)頁數(shù)據(jù)集,如 FineWeb-EDU。

為了增強(qiáng)數(shù)學(xué)推理能力,還加入了合成生成的數(shù)學(xué)數(shù)據(jù)。

在預(yù)訓(xùn)練之后,模型進(jìn)行了有監(jiān)督微調(diào)(SFT),以提高其指令跟隨能力,并改善其在對話互動格式中的表現(xiàn)。

SFT階段使用了多種公開可用的指令跟隨和對話數(shù)據(jù)集。

為了進(jìn)一步增強(qiáng)特定能力,特別是在推理和復(fù)雜指令遵循方面,還補(bǔ)充了使用GLAN和 MathScale方法生成的合成數(shù)據(jù)集。

為了進(jìn)一步使模型的行為與人類對有用性和安全性的偏好保持一致,在SFT 階段之后應(yīng)用了直接偏好優(yōu)化(DPO)。

DPO是一種比傳統(tǒng)的RLHF更高效的替代方法,它通過直接優(yōu)化語言模型并利用偏好數(shù)據(jù),避免了訓(xùn)練單獨(dú)獎勵模型的需求。

DPO 階段進(jìn)一步精煉了模型的對話能力,并使其更好地與實際使用中的預(yù)期交互模式保持一致。

性能評估

通過多種基準(zhǔn)測試來衡量模型的表現(xiàn),這些基準(zhǔn)測試包括了:

  • 語言理解與推理
  • 世界知識
  • 閱讀理解
  • 數(shù)學(xué)與代碼
  • 指令跟隨與對話

如表1所示,BitNet b1.58 2B4T展現(xiàn)了顯著的資源效率。

與所有評估過的全精度模型相比,它的非嵌入內(nèi)存占用和解碼過程中估算的能耗明顯較低。

內(nèi)存占用為0.4GB,輸出延遲為29ms。

圖片

在任務(wù)表現(xiàn)方面,BitNet b1.58 2B4T也表現(xiàn)得非常具有競爭力。

它在多個涵蓋推理、知識和數(shù)學(xué)能力的基準(zhǔn)測試中取得了最佳結(jié)果。

進(jìn)一步通過與Qwen2.5 1.5B的后訓(xùn)練量化(PTQ)版本進(jìn)行比較,探索效率與性能之間的權(quán)衡,使用了標(biāo)準(zhǔn)的INT4方法(GPTQ和AWQ)。

圖片

INT4量化雖然成功地減少了全精度模型的內(nèi)存占用(從2.6GB下降到0.7GB),但由于原生的1 bit架構(gòu),BitNet b1.58 2B4T的內(nèi)存需求更低。

更重要的是,這種卓越的內(nèi)存效率并沒有犧牲與量化模型相比的性能。

標(biāo)準(zhǔn)的后訓(xùn)練量化(PTQ)技術(shù)會導(dǎo)致相較于原始全精度模型,性能出現(xiàn)明顯下降(從平均55.72下降到了51.17)。

相比之下,BitNet b1.58 2B4T在評估的基準(zhǔn)測試中表現(xiàn)優(yōu)于Qwen2.5-1.5B的INT4量化版本。

最后,將BitNet b1.58 2B4T與其他針對或量化到接近1 bit精度的模型進(jìn)行比較。

評估結(jié)果明確地將BitNet b1.58 2B4T定位為該類別的領(lǐng)先模型。

BitNet b1.58 2B4T在大多數(shù)基準(zhǔn)測試中取得了最高分,表現(xiàn)遠(yuǎn)超所有其他比較的 1 位模型。

圖片

推理部署:GPU/CPU都能跑

高效的推理對于LLM的部署至關(guān)重要,尤其是在資源受限的環(huán)境中。

BitNet b1.58 2B4T采用1.58位權(quán)重和8位激活的獨(dú)特量化方案,因此需要專門的實現(xiàn)方式,因為標(biāo)準(zhǔn)的深度學(xué)習(xí)庫通常缺乏針對這種混合精度、低位格式的優(yōu)化內(nèi)核。

圖片

為了解決這個問題,微軟開發(fā)并開源了專門的推理庫,支持GPU和CPU平臺,特別地,針對CPU開發(fā)了bitnet.cpp。

bitnet.cpp是一個C++庫,作為1 bit大規(guī)模語言模型(LLM)在CPU上推理的官方參考實現(xiàn),bitnet.cpp提供了針對標(biāo)準(zhǔn)CPU架構(gòu)優(yōu)化的內(nèi)核,旨在高效執(zhí)行。

圖片

但路還很長

微軟研究院提供了一個在線的,已經(jīng)部署好的體驗網(wǎng)站。

并且分為了CPU部署和GPU A100部署兩種模式。

圖片

讓我們實測一下,這個模型到底能不能用?

可以看到,不論是CPU還是GPU,輸出內(nèi)容的都還不錯。

圖片

圖片

看來微軟所言非虛,這次這個模型還得很能打的。

簡單測試一下數(shù)學(xué)問題,整體輸出還是OK的,輸出速率在27 token/s。

圖片

寫代碼也不在話下。

圖片

總而言之,微軟研究院發(fā)布的BitNet b1.58 2B4T模型,以其僅20億參數(shù)、創(chuàng)新的原生1.58位量化技術(shù)(參數(shù)僅為{-1, 0, +1})和僅0.4GB的大小,代表了LLM輕量化的一次重要探索。

雖然各個指標(biāo)方面都追求極致的縮小,但是這個模型保持了與同等規(guī)模全精度模型相當(dāng)性能。

盡管實際測試顯示其在特定任務(wù)(如非英語處理)上仍有局限。

但其開源特性和展現(xiàn)出的潛力,無疑為資源受限的端側(cè)AI部署開啟了新的想象空間。

1-bit的嘗試是極限的,但是通往未來AI的道路是無限的。

作者介紹

韋福如

圖片

韋福如博士現(xiàn)任微軟杰出科學(xué)家,領(lǐng)導(dǎo)團(tuán)隊從事基礎(chǔ)模型、自然語言處理、語音處理和多模態(tài)人工智能等領(lǐng)域的研究。

近年來,他還致力于領(lǐng)導(dǎo)和推進(jìn)通用型人工智能的基礎(chǔ)研究和創(chuàng)新。

韋博士還擔(dān)任西安交通大學(xué)和中國科技大學(xué)兼職博士生導(dǎo)師,香港中文大學(xué)教育部-微軟重點(diǎn)實驗室聯(lián)合主任。

馬樹銘

圖片

馬樹銘(Shuming Ma)是微軟亞洲研究院(MSRA)自然語言計算組的研究員,工作地點(diǎn)位于中國北京。

在加入微軟亞洲研究院之前,于2019年獲得了北京大學(xué)的碩士和學(xué)士學(xué)位,研究方向主要為自然語言處理。

馬樹銘的研究興趣集中在大規(guī)模預(yù)訓(xùn)練語言模型領(lǐng)域。已經(jīng)在頂級學(xué)術(shù)會議上發(fā)表了30多篇論文,包括ICML、ICLR、ACL、EMNLP等。

王鴻鈺

圖片

現(xiàn)為中國科學(xué)院計算技術(shù)研究所(ICT,CAS)三年級博士研究生,導(dǎo)師為陳熙霖教授。本科畢業(yè)于中國科學(xué)技術(shù)大學(xué)(USTC)計算機(jī)科學(xué)與技術(shù)系,期間在錢超副研究員的指導(dǎo)下進(jìn)行學(xué)習(xí)和研究。

目前在微軟亞洲研究院(MSRA)通用人工智能組(GenAI)擔(dān)任研究實習(xí)生,受韋福如博士和馬樹銘博士的指導(dǎo),實習(xí)時間為2021年8月至今。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-04-23 12:11:40

2025-04-21 18:43:31

深度學(xué)習(xí)微軟開源

2023-03-13 15:42:00

模型芯片

2022-10-19 14:03:45

開源AI

2025-01-23 17:00:00

模型算力數(shù)據(jù)

2024-07-10 10:54:44

2021-07-09 11:33:18

微軟補(bǔ)丁漏洞

2024-10-22 18:07:43

LLMs開源大模型

2023-02-20 09:58:35

模型3D

2023-10-31 19:11:11

2019-10-17 17:01:51

云計算開源模型

2025-03-06 09:55:49

2022-05-30 15:44:33

模型訓(xùn)練GAN

2023-10-31 12:29:25

模型訓(xùn)練

2011-03-10 13:18:54

SQLwhere

2011-12-15 09:07:21

javaeclipse

2019-10-14 15:13:24

AI 數(shù)據(jù)人工智能

2023-02-03 16:24:09

ChatGPT開源

2025-04-03 15:57:48

2025-03-11 03:00:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號